キーワード解説

敵対的サンプル(Adversarial Examples)によるAIモデル誤認を防ぐロバスト性向上技術

AIモデルが意図的に誤認識させられる敵対的サンプルに対し、モデルの堅牢性を高めるための様々な技術的アプローチを紹介します。

0 関連記事

敵対的サンプル(Adversarial Examples)によるAIモデル誤認を防ぐロバスト性向上技術とは

親クラスター「MLOpsのAIセキュリティ」の解説より

AIモデルが意図的に誤認識させられる敵対的サンプルに対し、モデルの堅牢性を高めるための様々な技術的アプローチを紹介します。

このキーワードが属するテーマ

このキーワードに紐付く記事はまだありません