キーワード解説
LLMの有害コンテンツ生成をリアルタイムで防ぐSafety Guardrailの実装
大規模言語モデル(LLM)が差別的、暴力的な有害コンテンツを生成するのをリアルタイムで防ぐガードレール技術の実装方法を詳述します。
0 関連記事
LLMの有害コンテンツ生成をリアルタイムで防ぐSafety Guardrailの実装とは
親クラスター「AI倫理ガイドライン」の解説より大規模言語モデル(LLM)が差別的、暴力的な有害コンテンツを生成するのをリアルタイムで防ぐガードレール技術の実装方法を詳述します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません