キーワード解説
知識蒸留(Knowledge Distillation)による継続学習時のモデル精度劣化抑制
大規模な教師モデルの知識を小規模な生徒モデルに転移させる「知識蒸留」が、継続学習においてモデルの精度劣化を抑制し、効率的な知識更新にどう貢献するかを解説します。
0 関連記事
知識蒸留(Knowledge Distillation)による継続学習時のモデル精度劣化抑制とは
親クラスター「継続学習の課題」の解説より大規模な教師モデルの知識を小規模な生徒モデルに転移させる「知識蒸留」が、継続学習においてモデルの精度劣化を抑制し、効率的な知識更新にどう貢献するかを解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません