キーワード解説

知識蒸留(Knowledge Distillation)を用いた軽量な特化型AIモデルの構築手法

大規模な教師モデルから小型の生徒モデルへ知識を転移させ、性能を維持しつつモデルを軽量化し、推論コストを削減する手法を説明します。

0 関連記事