キーワード解説

知識蒸留(Knowledge Distillation)を用いたモバイル向け軽量AIモデルの構築

大規模な教師モデルの知識を小型の生徒モデルへ転移させ、高い精度を保ちつつ軽量化する技術です。

0 関連記事