- ディープフェイク(Deepfake)
- 深層学習(ディープラーニング)を応用し、実在の人物の顔や音声を別の画像や動画、音声に合成して、あたかも本物であるかのような偽のコンテンツを生成する技術。
- 生成AI(Generative AI)
- 学習データから特徴を学び、テキスト、画像、音声、動画などの新しいコンテンツを生成するAIの総称。ディープフェイクの基盤技術の一つ。
- GAN(敵対的生成ネットワーク)
- Generative Adversarial Networksの略。生成器と識別器という2つのネットワークが互いに競い合いながら学習することで、リアルなデータを生成する深層学習モデル。ディープフェイク生成の主要技術。
- 音声合成(Voice Synthesis)
- テキスト情報から人間の声を模倣した音声を生成する技術。ディープフェイクでは特定の人物の声を再現するために悪用されることがある。
- 顔認証(Facial Recognition)
- 個人の顔の特徴を分析して本人を識別する技術。ディープフェイクの偽顔によって突破されるリスクが指摘されている。
- なりすまし詐欺(Impersonation Scam)
- 他人になりすまして個人情報や金銭を騙し取る詐欺。ディープフェイク技術により声や顔を模倣されることで、その手口が高度化している。
- ビジネスメール詐欺(BEC)
- Business Email Compromiseの略。取引先や経営者になりすまして偽のメールを送り、送金や機密情報を騙し取る詐欺。ディープフェイクの音声や動画が組み合わされることで、より信憑性が増す。
- メディアリテラシー(Media Literacy)
- メディアから発信される情報を批判的に読み解き、真偽を判断し、適切に活用・発信する能力。ディープフェイク時代の重要な防衛策。
- デジタル透かし(Digital Watermarking)
- 画像や音声、動画などのデジタルコンテンツに、目に見えない形で情報を埋め込む技術。コンテンツの真正性証明や著作権保護に利用される。
- フォレンジック解析(Forensic Analysis)
- デジタルデータの改ざんや不正行為の痕跡を科学的に分析・調査する技術。ディープフェイクの真偽を特定する際に用いられる。
- C2PA
- Coalition for Content Provenance and Authenticityの略。デジタルコンテンツの来歴と真正性を証明するための技術標準を開発する団体。コンテンツの信頼性担保を目指す。
- ハルシネーション(Hallucination)
- AIが事実に基づかない、あるいは誤った情報をあたかも真実であるかのように生成してしまう現象。偽情報拡散の一因となる。
- 肖像権(Right of Portrait)
- 個人の顔や姿を無断で撮影、公開、利用されない権利。ディープフェイクによる無断利用は、この権利侵害にあたる可能性がある。
- 著作権(Copyright)
- 文芸、学術、美術、音楽などの創作物(著作物)を保護する権利。ディープフェイク生成に既存の著作物が無断で利用されることで問題となる。
- ライブネス検知(Liveness Detection)
- 顔認証システムなどにおいて、対象が録画や写真ではなく、生身の人間であるかを識別する技術。ディープフェイクによる顔認証突破を防ぐために重要。