キーワード解説

AIモデルの学習コストを削減する「混合専門家(MoE)」のスケーリング特性

混合専門家(MoE)モデルが、大規模AIモデルの学習コストを削減しつつスケーリング特性を維持する仕組みを解説します。

0 関連記事