キーワード解説
ナレッジ・ディスティレーション(知識蒸留)による過学習抑制とモデル圧縮
大規模な教師モデルの知識を小規模な生徒モデルに転移させる知識蒸留が、過学習を抑制しつつモデルを効率的に圧縮する手法を説明します。
0 関連記事
ナレッジ・ディスティレーション(知識蒸留)による過学習抑制とモデル圧縮とは
親クラスター「過学習の回避策」の解説より大規模な教師モデルの知識を小規模な生徒モデルに転移させる知識蒸留が、過学習を抑制しつつモデルを効率的に圧縮する手法を説明します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません