キーワード解説
知識蒸留(Distillation)を用いた小規模・高性能な日本語LLMの構築
大規模モデルから知識を抽出し、よりコンパクトで高性能な日本語LLMを構築する知識蒸留の理論と実践を解説します。
0 関連記事
知識蒸留(Distillation)を用いた小規模・高性能な日本語LLMの構築とは
親クラスター「軽量化・高速化」の解説より大規模モデルから知識を抽出し、よりコンパクトで高性能な日本語LLMを構築する知識蒸留の理論と実践を解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません