キーワード解説
敵対的サンプル攻撃(Adversarial Attacks)を防ぐAIモデルの堅牢化技術
AIモデルの判断を誤らせる敵対的サンプル攻撃に対し、モデルの堅牢性を高め、誤動作や誤認識を防ぐ技術的アプローチを解説します。
0 関連記事
敵対的サンプル攻撃(Adversarial Attacks)を防ぐAIモデルの堅牢化技術とは
親クラスター「AIプライバシー・セキュリティ」の解説よりAIモデルの判断を誤らせる敵対的サンプル攻撃に対し、モデルの堅牢性を高め、誤動作や誤認識を防ぐ技術的アプローチを解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません