キーワード解説
DPO(Direct Preference Optimization)によるAIモデル安全性ファインチューニング
DPO技術を用いてAIモデルをファインチューニングし、人間の倫理的な好みや安全基準に沿った出力を生成させることで、モデルの安全性を向上させます。
0 関連記事
DPO(Direct Preference Optimization)によるAIモデル安全性ファインチューニングとは
親クラスター「セキュリティ倫理のAIガバナンス」の解説よりDPO技術を用いてAIモデルをファインチューニングし、人間の倫理的な好みや安全基準に沿った出力を生成させることで、モデルの安全性を向上させます。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません