キーワード解説

知識蒸留(Distillation)を用いた小規模・高性能な日本語LLMの構築

大規模モデルから知識を抽出し、よりコンパクトで高性能な日本語LLMを構築する知識蒸留の理論と実践を解説します。

0 関連記事