キーワード解説

RLHFを用いた大規模言語モデルの価値観チューニング手法

人間からのフィードバックを用いて、大規模言語モデルがより望ましい応答を生成するよう学習させる基本的なアライメント手法を解説します。

0 関連記事