キーワード解説

ナレッジ・ディスティレーション(知識蒸留)による過学習抑制とモデル圧縮

大規模な教師モデルの知識を小規模な生徒モデルに転移させる知識蒸留が、過学習を抑制しつつモデルを効率的に圧縮する手法を説明します。

0 関連記事