キーワード解説
知識蒸留(Knowledge Distillation)を活用したドメイン適応AIの軽量化
大規模モデルの知識を小規模モデルに転移させつつ、ターゲットドメインに適応させることで、AIモデルの軽量化と高精度化を両立する手法を解説します。
0 関連記事
知識蒸留(Knowledge Distillation)を活用したドメイン適応AIの軽量化とは
親クラスター「ドメイン適応」の解説より大規模モデルの知識を小規模モデルに転移させつつ、ターゲットドメインに適応させることで、AIモデルの軽量化と高精度化を両立する手法を解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません