キーワード解説
知識蒸留(Knowledge Distillation)を用いたモバイル向け軽量AIモデルの構築
大規模な教師モデルの知識を小型の生徒モデルへ転移させ、高い精度を保ちつつ軽量化する技術です。
0 関連記事
知識蒸留(Knowledge Distillation)を用いたモバイル向け軽量AIモデルの構築とは
親クラスター「推論モデルの軽量化」の解説より大規模な教師モデルの知識を小型の生徒モデルへ転移させ、高い精度を保ちつつ軽量化する技術です。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません