正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-06-28 13:35

OpenAI突发新模型,用GPT-4给GPT-4“找茬”

本文来自微信公众号:量子位(ID:QbitAI),作者:梦晨,原文标题:《OpenAI突发新模型:用GPT改进GPT训练,左脚踩右脚登天,RLHF突破人类能力上限》,题图来自:视觉中国

文章摘要
OpenAI发布了新模型CriticGPT,基于GPT-4,能够帮助改进GPT训练,提高挑错能力和评论全面性。

• 💡 CriticGPT成功率高达75%以上,在挑错能力上远超人类审查员

• 🌟 CriticGPT评论比人类更全面,能够有效避免AI的“幻觉”和无关挑剔问题

• 🔍 CriticGPT训练在代码任务上表现出色,同时给ChatGPT的生产数据挑出了问题

OpenAI突然发布新模型,基于GPT-4,可以帮助下一代GPT进行训练。


CriticGPT,用于给代码挑Bug时能找到75%以上,而相比之下人类只能找到不到25%。


它还可以给Bug写“锐评”,在60%的情况下人类训练师更喜欢有CriticGPT帮助下的批评。



有网友开玩笑说:“只会批评的GPT,这不是我前妻么?”



但这项研究的重要之处在于,CriticGPT挑错能力可以泛化到代码之外。


比如在RLHF训练中给AI的输出挑错,而且已经进入OpenAI内部训练流程。



更好的RLHF就能训练出更强的模型,更强的模型又能通过更好地挑错来增强RLHF训练……


论文结论中赫然写道:在真实世界数据中挑错误上,AI还可以继续进步,人类智能已经到头了。



“左脚踩右脚登天”,难道真的被这帮人给搞出来了?


这是一篇来自被解散的超级对齐团队的“遗作”,由前负责人Jan Leike带队。


而Leike本人已经跳槽去了隔壁的Anthropic,继续做这类研究。



基于GPT-4,改进GPT-4


OpenAI官网的技术博客变相承认了,GPT-4之后这么久没有大的改进,还真的遇到一些瓶颈:


随着AI能力变强,它犯的错也不那么显眼了,人类训练师都难以发现不准确之处。人类给不出反馈,那RLHF“人类反馈强化学习”就无从谈起了。



CriticGPT正是为了应对这一挑战而生。


CriticGPT基于GPT-4,也接受了RLHF训练,但特别之处在于训练数据中包含大量的错误输入。


具体来说,分为三步:


  1. 让人类标注员在ChatGPT生成的代码里故意植入一些微妙的bug。


  2. 标注员扮演代码审查员的角色,写下他们对这些bug的评论。


  3. 用这些数据来训练CriticGPT,让它学会如何发现和指出代码中的问题。



在具体训练过程中,研究人员还玩了点花样。


比如不断让标注员验证自己插入的bug是否足够隐蔽,能够骗过当前版本的CriticGPT。这样一来,CriticGPT就被迫不断进化,学会发现越来越隐蔽的问题。


思路有点像GAN的左右互搏,只不过生成器这个位置是人类来充当的……


最后,OpenAI还使用了一种“强制采样束搜索”(FSBS)的技术,允许CriticGPT在生成评论时既能保持全面,又能减少“幻觉”和“鸡蛋里挑骨头”现象。


具体来说,FSBS会强制模型生成多个不同的评论片段,用奖励模型对这些片段进行评分,最后根据评分和一个长度修正因子来选择最佳的评论组合。


通过调整长度修正因子,可以在评论的全面性和准确性之间找到最佳平衡点,既不会错过重要问题,又不会过度挑剔。



等一下,推理时搜索,这不正是和传闻中的Q*一个思路?这次居然写到了论文里。


可能是看外部团队按这一思路搞的研究已经够多了,就不再藏着掖着了。


说回CriticGPT,取得了哪些结果呢?


  • 在发现人为插入的bug方面,人类审核员平均只能找到25%,而CriticGPT的成功率达75%以上。


  • 在评估自然出现的bug时,有63%的情况下人类更倾向于选择CriticGPT的评论而非人类评论。


  • CriticGPT的评论被认为比ChatGPT更全面,更少出现“幻觉”和无关紧要的挑剔。


  • 在评估非代码任务时,成功识别出数百个在ChatGPT训练数据中被人类认为是“完美”的错误。


不过CriticGPT也不是十全十美,它也会有“幻觉”问题,指出一些实际上不存在的问题。


目前,人类和CriticGPT组队工作效果最好:既能发现大部分问题,又能避免AI的“幻觉”。



RLHF的上限不再是人类


对于CriticGPT,负责这项研究的Jan Leike也补充了他自己的一些看法。



RLHF是创造出ChatGPT的核心技术之一,但隐患在于人类能力就是RLHF的天花板。


当需要AI去解决人类无能为力的任务时,人类给不出相应反馈,AI也就无法改进了。


CriticGPT的成功,意味着超级对齐团队设想中的可扩展监督,也就是用弱模型监督训练更强的模型,终于有希望了。



不过他也透露,目前CriticGPT并没有帮助人类显著提高艰难任务上的准确性,但是框架有了,只要有更好的预训练模型就能不断改进。



为什么先从代码任务开始入手呢?


一方面,代码任务有现实意义,做出来的模型可以直接用上。


另一方面,代码可以清晰明确地评估,比开放式对话更客观,更容易评估CriticGPT发现的问题是否真实和重要。


CriticGPT在代码上训练,不仅能挑代码bug,还给1/4的ChatGPT生产数据挑出了问题。



最后,由于原OpenAI超级对齐团队已经解散,已经跳槽的Jan Leike插入了一条Anthropic招聘广告:


想做后续研究的请去隔壁。


也是让人不得不感叹硅谷是真的没有竞业协议。



One More Thing


同日,谷歌发布了开源大模型Gemma 2,OpenAI赶紧甩出一条消息来狙击,这都第几次了。



对于甩出来的不是Sora公测或者GPT-4o完整语音、视频模式,也有很多人不满。


有网友提了个更好的主意:


做个ReleaseGPT,专门用来发布承诺好的更新吧。



不过这次OpenAI久违地放出了论文,也还算有一些诚意。


论文地址:https://cdn.openai.com/llm-critics-help-catch-llm-bugs-paper.pdf


参考链接:

[1]https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/

[2]https://x.com/janleike/status/1806386442568142995


本文来自微信公众号:量子位(ID:QbitAI),作者:梦晨

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: