キーワード解説

RLHFを用いた大規模言語モデルの安全性向上と人間によるフィードバックの設計

人間のフィードバックを強化学習に用いるRLHF(Reinforcement Learning from Human Feedback)により、LLMの安全性や望ましい挙動を学習させる設計手法を解説します。

0 関連記事

RLHFを用いた大規模言語モデルの安全性向上と人間によるフィードバックの設計とは

親クラスター「人間による監視」の解説より

人間のフィードバックを強化学習に用いるRLHF(Reinforcement Learning from Human Feedback)により、LLMの安全性や望ましい挙動を学習させる設計手法を解説します。

このキーワードが属するテーマ

このキーワードに紐付く記事はまだありません