キーワード解説

知識蒸留(Knowledge Distillation)による軽量な低消費電力AIモデルの構築

大規模な教師モデルの知識を小型の生徒モデルに転移させ、高い精度を維持しつつ、エッジデバイスで動作可能な軽量かつ低消費電力なAIモデルを構築します。

0 関連記事