キーワード解説

敵対的サンプル攻撃(Adversarial Attacks)を防ぐAIモデルの堅牢化技術

AIモデルの判断を誤らせる敵対的サンプル攻撃に対し、モデルの堅牢性を高め、誤動作や誤認識を防ぐ技術的アプローチを解説します。

0 関連記事