![图片](https://image.jiqizhixin.com/uploads/editor/a2a5cb47-336e-4ee7-8ad9-8cf1cd00ce9a/640.png)
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
论文地址:https://arxiv.org/pdf/2405.07863 奖励模型 / 偏好模型建模: https://github.com/RLHFlow/RLHF-Reward-Modeling 迭代 RLHF: https://github.com/RLHFlow/Online-RLHF Huggingface RLFlow: https://huggingface.co/RLHFlow
离线偏好数据集收集:首先随机采样一个 prompt,并使用 SFT 模型以及更加强大的语言模型 (GPT-4, Claude, LLaMA2-Chat-70B) 收集两个回复,最后让人类 / GPT-4 标注其更喜欢的回复; 在离线数据集上使用 DPO/Slic/IPO 等损失函数进行有监督学习。
模型选择:首先依据历史数据对模型进行训练,从而得到两个模型; 数据收集:对每条 prompt, 用两个模型采样 2 条回复,并让外部偏好模型进行标注,总共收集 m 个偏好数据对加入历史数据集中。
![图片](https://image.jiqizhixin.com/uploads/editor/fcf8a756-296f-4982-ab1c-59cfe120daea/640.png)