キーワード解説
敵対的サンプル(Adversarial Examples)によるAIモデル誤認を防ぐロバスト性向上技術
AIモデルが意図的に誤認識させられる敵対的サンプルに対し、モデルの堅牢性を高めるための様々な技術的アプローチを紹介します。
0 関連記事
敵対的サンプル(Adversarial Examples)によるAIモデル誤認を防ぐロバスト性向上技術とは
親クラスター「MLOpsのAIセキュリティ」の解説よりAIモデルが意図的に誤認識させられる敵対的サンプルに対し、モデルの堅牢性を高めるための様々な技術的アプローチを紹介します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません