キーワード解説
LLMのハルシネーション(幻覚)を抑制するRAG技術の倫理的メリット
大規模言語モデル(LLM)が事実に基づかない情報を生成する現象を抑え、信頼性の高い情報提供を可能にする技術です。
0 関連記事
LLMのハルシネーション(幻覚)を抑制するRAG技術の倫理的メリットとは
親クラスター「AI倫理」の解説より大規模言語モデル(LLM)が事実に基づかない情報を生成する現象を抑え、信頼性の高い情報提供を可能にする技術です。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません