キーワード解説
知識蒸留(Distillation)を用いた軽量かつ高精度なAIリランキングモデルの作成
大規模なリランカーモデルの知識をより軽量なモデルに転移させる知識蒸留技術を用いて、高精度を維持しつつ推論コストを削減する手法を解説します。
0 関連記事
知識蒸留(Distillation)を用いた軽量かつ高精度なAIリランキングモデルの作成とは
親クラスター「リランキング技術」の解説より大規模なリランカーモデルの知識をより軽量なモデルに転移させる知識蒸留技術を用いて、高精度を維持しつつ推論コストを削減する手法を解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません