キーワード解説

LLMのハルシネーション(幻覚)を抑制するAIファクトチェック技術

LLMが生成する誤情報(ハルシネーション)を検知し、事実に基づいた正確な出力を担保するためのAI技術と手法を解説します。

0 関連記事