キーワード解説

知識蒸留(Knowledge Distillation)による小型・高速なAIモデルの構築法

大規模なトランスフォーマーモデルの性能を維持しつつ、より小型で高速なモデルを構築するための知識蒸留の技術と、その適用方法を解説します。

0 関連記事