キーワード解説

LLMのハルシネーション(幻覚)を抑制するRAG技術の倫理的メリット

大規模言語モデル(LLM)が事実に基づかない情報を生成する現象を抑え、信頼性の高い情報提供を可能にする技術です。

0 関連記事