- AI著作権
- AIが生成したコンテンツや、AIの学習データ利用に関する著作権の法的側面を指します。誰に権利が帰属するか、どこまでが適法な利用かなどが議論の対象です。
- EU AI Act
- 欧州連合が採択した、AIの利用を包括的に規制する世界初の法律です。AIシステムをリスクレベルに応じて分類し、高リスクAIに厳格な義務を課します。
- 生成AI
- テキスト、画像、音声、動画などを自律的に生成できるAIモデルの総称です。ChatGPTやStable Diffusionなどが代表例です。
- 学習データ
- AIモデルがパターンやルールを学習するために用いられる、大量のデータセットです。著作物や個人情報を含むことが多く、法的問題の源泉となり得ます。
- 人格権
- 個人の尊厳に関わる権利で、著作権法における著作者人格権(氏名表示権、同一性保持権など)や、肖像権、プライバシー権などを含みます。AIによる表現がこれを侵害するリスクがあります。
- パブリシティ権
- 著名人などが持つ、自身の肖像や氏名を商業的に利用することを許諾する権利です。AIが著名人の肖像や声を無断で利用してコンテンツを生成した場合、この権利を侵害する可能性があります。
- 不正競争防止法
- 事業者間の公正な競争を確保するための法律です。AIによる営業秘密の不正取得や、他社のブランドイメージを損なう行為などが規制対象となり得ます。
- 個人情報保護法
- 個人情報(氏名、生年月日など特定の個人を識別できる情報)の適正な取扱いを定める法律です。AIが個人情報を収集、利用、分析する際に遵守が求められます。
- ハルシネーション
- 生成AIが事実に基づかない、もっともらしい虚偽の情報を生成する現象です。法的責任や名誉毀損のリスクを引き起こす可能性があります。
- AIガバナンス
- AIシステムの開発から運用、廃棄に至るライフサイクル全体を通じて、倫理的、法的、社会的な要件を遵守し、リスクを管理するための組織体制やプロセスを指します。
- XAI (説明可能なAI)
- AIの出力結果がなぜそうなったのかを人間が理解できるように説明する技術や概念です。AIの透明性確保と説明責任を果たす上で重要です。
- プロンプト
- 生成AIに対して特定のタスクを実行させるために与える指示や入力文です。プロンプトの設計がAIの出力結果と法的リスクに影響を与えることがあります。
- 知的財産権
- 人間の知的な創作活動によって生み出されたものに対して与えられる権利の総称です。著作権、特許権、商標権、意匠権などが含まれます。
- データポイズニング
- AIの学習データに意図的に不正なデータを混入させ、AIモデルの性能を低下させたり、特定の悪意ある振る舞いを誘発させたりする攻撃手法です。
- フェデレーション学習
- 複数の分散されたデータセットを中央に集約することなく、各ローカル環境でAIモデルを学習させ、その学習結果(モデルのパラメータなど)のみを共有する機械学習手法です。プライバシー保護に寄与します。
- 透明性義務
- AIシステムがどのように機能し、どのようなデータを使い、どのような結果を導き出すのかを、人間が理解できるよう開示する義務です。AI規制で重視されます。
- 適合性評価
- AIシステムが特定の法規制(例: EU AI Act)や標準に適合しているかを評価するプロセスです。高リスクAIシステムに義務付けられます。
- AIリスクマネジメント
- AIシステムの開発・運用に伴う法的、倫理的、技術的、社会的なリスクを特定、評価、緩和、監視する一連のプロセスです。
- AI認証
- AIシステムが特定の品質、安全性、倫理、法規制遵守の基準を満たしていることを第三者が証明するプロセスです。信頼性向上に寄与します。
- デジタルウォーターマーク
- デジタルコンテンツに埋め込まれる、目に見えない情報(作成者情報、真正性証明など)です。AI生成物の出所や改ざん防止に利用されます。