キーワード解説

敵対的攻撃(Adversarial Attack)からAIモデルを保護するガバナンス実装

AIモデルが誤った判断を下すよう仕向ける敵対的攻撃からシステムを防御するための、堅牢なガバナンス実装戦略を詳述します。

0 関連記事