キーワード解説
知識蒸留(Knowledge Distillation)による軽量な低消費電力AIモデルの構築
大規模な教師モデルの知識を小型の生徒モデルに転移させ、高い精度を維持しつつ、エッジデバイスで動作可能な軽量かつ低消費電力なAIモデルを構築します。
0 関連記事
知識蒸留(Knowledge Distillation)による軽量な低消費電力AIモデルの構築とは
親クラスター「低消費電力」の解説より大規模な教師モデルの知識を小型の生徒モデルに転移させ、高い精度を維持しつつ、エッジデバイスで動作可能な軽量かつ低消費電力なAIモデルを構築します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません