キーワード解説
LLMのハルシネーション(幻覚)を抑制する「RAG」技術の倫理的活用
大規模言語モデル(LLM)が事実と異なる情報を生成する「ハルシネーション」を抑制し、信頼性の高い情報提供を可能にするRAG(Retrieval-Augmented Generation)の活用法を解説します。
0 関連記事
LLMのハルシネーション(幻覚)を抑制する「RAG」技術の倫理的活用とは
親クラスター「AIの倫理と規制」の解説より大規模言語モデル(LLM)が事実と異なる情報を生成する「ハルシネーション」を抑制し、信頼性の高い情報提供を可能にするRAG(Retrieval-Augmented Generation)の活用法を解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません