キーワード解説

AIモデルの知識蒸留(Distillation)による小規模・高速な派生モデルの構築

知識蒸留は、大規模モデルの知識を小規模モデルに転移させ、元のモデルに近い性能を保ちつつ、推論速度とリソース効率を向上させます。

0 関連記事