キーワード解説
AIモデルの学習コストを削減する「混合専門家(MoE)」のスケーリング特性
混合専門家(MoE)モデルが、大規模AIモデルの学習コストを削減しつつスケーリング特性を維持する仕組みを解説します。
0 関連記事
AIモデルの学習コストを削減する「混合専門家(MoE)」のスケーリング特性とは
親クラスター「スケーリング則」の解説より混合専門家(MoE)モデルが、大規模AIモデルの学習コストを削減しつつスケーリング特性を維持する仕組みを解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません