キーワード解説
RLHFを用いた大規模言語モデルの安全性向上と人間によるフィードバックの設計
人間のフィードバックを強化学習に用いるRLHF(Reinforcement Learning from Human Feedback)により、LLMの安全性や望ましい挙動を学習させる設計手法を解説します。
0 関連記事
RLHFを用いた大規模言語モデルの安全性向上と人間によるフィードバックの設計とは
親クラスター「人間による監視」の解説より人間のフィードバックを強化学習に用いるRLHF(Reinforcement Learning from Human Feedback)により、LLMの安全性や望ましい挙動を学習させる設計手法を解説します。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません