キーワード解説

知識蒸留(Knowledge Distillation)によるAIパラメータの削減と精度維持の両立

大規模な教師モデルの知識を小規模な生徒モデルに転移させ、パラメータ削減と精度維持を両立させる知識蒸留の技術について解説します。

0 関連記事

知識蒸留(Knowledge Distillation)によるAIパラメータの削減と精度維持の両立とは

親クラスター「パラメータ数」の解説より

大規模な教師モデルの知識を小規模な生徒モデルに転移させ、パラメータ削減と精度維持を両立させる知識蒸留の技術について解説します。

このキーワードが属するテーマ

このキーワードに紐付く記事はまだありません