正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-09-13 07:31

OpenAI震撼发布新模型,Sam Altman:耐心时刻结束了

本文来自微信公众号:极客公园 (ID:geekpark),作者:LiYuan,题图来自:视觉中国

文章摘要
OpenAI发布新模型o1-preview,展示强大推理能力和高效应用。

• 🚀 o1-preview模型在数学和编程能力上大幅超越GPT-4o

• 🧠 o1模型通过自我推理显著提升科学问题解决能力

• 💡 o1-mini版推理成本低,有望提供给所有ChatGPT用户

北京时间凌晨一点,OpenAI突然进行了重大更新。


已经预热了接近一年的Q*/草莓项目,传说中能够进行高级推理的大语言模型,今晚终于露出了真面目。


OpenAI发推表示,刚刚推出了OpenAI o1-preview模型——名字的含义之前外媒已经爆料过,o1应该代表着OpenAI下一代大模型的Orion(猎户座)一代。


OpenAI在发布文档中写道,新模型在推理能力上代表了人工智能能力的新水平,因此,计数器将重置为1——这意味着未来很可能不会有GPT-5了,o1将代表未来OpenAI的最强水平。


且从今天开始,ChatGPTPlus和Team用户就能够直接访问模型。


用户可以手动选择使用o1模型的预览版——o1-preview,或者使用o1模型的小尺寸版——o1-mini。o1-preview的每周限制为30条消息,o1-mini的每周限制为50条。


在OpenAI的模型介绍网页上,可以看到o1模型的训练数据截止时间为去年十月份,而最早的Q*项目的爆料,正好大概出现在去年十一月份。


OpenAI憋了一年的大招究竟如何?OpenAI能否再一次引领大模型的潮流,甚至让人们看到通用人工智能之路不再遥远?很快,每个人都能检验这一点了。


Sam Altman凌晨一点在X上发帖:“需要耐心等待的时刻结束了!”



一、o1模型:解决博士级别的科学问题超越人类


截止发稿时,笔者还不能使用o1模型。


不过OpenAI已经放出了大量相关的o1模型表现展示。


最引人关注的当然是新模型的推理能力。Sam Altman直接在X上贴出了o1与GPT-4o在数学、编程和解决博士级别科学题目上的能力对比。


最左边的柱形代表目前OpenAI的主力模型GPT-4o。今天放出来的o1预览版为中间的橙色柱形。


可以看到,在2024年美国数学邀请赛的竞赛题和Codeforces算法竞赛题上,o1预览版解决数学和编程问题的能力,比起GPT-4o,提升了5-6倍。而可怕的是,深橙色的柱形,代表真正的o1,相比于GPT-4o,提升了8-9倍!


最后一个图中,OpenAI还列出了人类专家在解决博士级别科学题目的时的成功率,大约在69.7%,而o1预览版和o1,都已经超过了人类专家的水平。


OpenAI的技术博客提到了更具体的数字,目前o1模型的成绩,在美国数学邀请赛上,可以排名进入美国前500名。而物理、生物和化学问题上的准确度,超过了人类博士的水平。


在大模型技术进入公众视野的两年内,一个经常为人们所使用的比喻是,大模型像一个什么都懂一点的大学生,在知识专精方面远远不行,但是从天文到地理,最基础的知识都能懂一点点。OpenAI的新模型,很有可能要刷新人们的这一认知了。


在官方博客中,OpenAI简单解释了这一进步背后的原理。


类似于人类在回答难题之前可能会思考很长时间,o1在尝试解决问题时会使用一系列思维。通过强化学习,o1学会了磨练其思维链并完善其使用的策略。它学会了认识并纠正错误,将棘手的步骤分解为更简单的步骤。当当前方法不起作用时,它会尝试另一种方法。这个过程极大地提高了模型的推理能力。




在OpenAI给的案例中。GPT-4o和o1模型同时回答同一个问题——读一段长文,然后做阅读理解。在o1模型中,会多一个选项叫做展开思维链。


如果不展开思维链,我们可以看到两个模型本身给出的答案是不同的。而打开思维链后,则会看到一段非常长的模型和自己的思维对话,解释为什么做出了不同的选择。


选A吗?emm,好像不是很好。选B吗?好像没有关联。模型完全在自己和自己提问和回答,最后判断出了哪个答案更好。




而在另一个例子中,解决化学问题时,我们可以看到o1模型甚至自己在选择多种方案对比。


标准的计算方式是这样。但是我们也可以这么计算,但这样或许没有必要?


在多次纠正自己之后,它得出了正确的答案。


之前,也已经有很多报道透露过o1模型能够有高推理能力的原理——这一训练方法,最早来自于斯坦福大学2022年开发的一种“自学推理”(Self-Taught Reasoner,STaR)


后来研究人员进一步开发了一种名为"Quiet-STaR"的新技术,翻译过来大概为“安静的自学推理”。核心为在每个输入token之后插入一个“思考”步骤,让AI生成内部推理。然后,系统会评估这些推理是否有助于预测后续文本,并相应地调整模型参数。这也是人们推测OpenAI最早的模型项目为什么叫Q*(读作Q Star)的原因。


在o1模型出现之前,用户通常也可以自己通过和模型对话的方式,让模型进行一步一步的思考,也就是所谓的慢思考,进行更准确的回答。但是很明显,o1模型此次将思维链放大到了完全不同的量级上。


而且,在之前的用户prompt引导中,模型能够回答出什么答案,最终也还要被模型能力限制。而通过不同的训练方式训练出来的o1模型,很有可能能够通过自己的推理,超越自身训练材料的限制,产出更高级和准确的答案。


在复杂推理任务上的进步,可能对编程和科学研究两个方向产生直接的推动。


OpenAI提到,在未来,医疗保健研究人员可以使用o1来注释细胞测序数据,物理学家可以使用o1生成量子光学所需的复杂数学公式,所有领域的开发人员可以使用o1来构建和执行多步骤工作流程。


OpenAI提供了一个例子,真正做到了只使用提示词,就完成了一个游戏的编程。


而推理能力的进步,如果能够进一步消除模型的幻觉,还可能对AI应用的建构产生间接的影响。对未来的AI安全也有积极的影响——之前的一些通过提示词工程误导模型进行错误输出的手段,可能会直接被模型通过更强的思考能力解决。


OpenAI o1-preview将在今天开始能够在ChatGPT上使用,并提供给受信任的API用户。


二、价格没涨,OpenAI用o1-mini解决推理成本问题


在OpenAI此次发布之前,曾有不少媒体爆料,新模型因为内部推理链条较长,对于推理的算力成本的需求进一步增高,OpenAI很有可能将提高使用模型的费用,甚至最离谱的猜测数字达到每月2000美金。


而此次OpenAI的发布,却令人惊讶,新模型的使用价格并没有上涨,虽然因为推理成本的原因,使用次数受到了大大的限制。o1-preview的每周限制使用条数为30条消息。


除了限制使用条数,OpenAI管控推理成本的另一个重要举措,是随着o1模型的推出,同时推出了o1-mini版。



OpenAI没有具体说明o1-mini的参数量有多大,但通过技术文档可以看出,o1mini版,和o1版上下文长度没有区别,甚至最大输出token数更高。


OpenAI表示o1-mini尤其擅长准确生成和调试复杂代码,对于开发人员尤其有用。作为较小的模型,o1-mini比o1-preview便宜80%,这使其成为需要推理但不需要广泛的世界知识的应用程序的强大且经济高效的模型。


OpenAI甚至还计划之后为所有ChatGPT免费用户提供o1-mini访问权限。


不过,作为新模型,o1系列模型,目前仍然不能浏览网页以获取信息以及上传文件和图像。OpenAI也提示道,GPT-4o在短期内,在某些任务上会更强一些。


三、Scaling Law后最重要的进展?


事实上,此次发布了新的模型,甚至不是OpenAI的发布中唯一重要的事情。


OpenAI还提及了自己训练中发现的一个现象:随着更多的强化学习(训练时计算)和更多的思考时间(测试时计算),o1的性能能持续提高。扩展这种方法的限制与LLM预训练的限制有很大不同。



事实上,英伟达的具身团队领导者Jim Fan直接在X上点评了这一事件的历史意义——模型不仅仅拥有训练时的scaling law,还拥有推理层面的scaling law,双曲线的共同增长,将突破之前大模型能力的提升瓶颈。


Jim Fan表示,2022年,人们提出了原始的scaling law(尺度定律),大概意为随着模型的参数量、数据量和计算量的增加,模型的性能能够不断提高。


这指的是在模型的训练过程中。而scaling law在今年看起来,似乎已经有停滞的意味——他提到在self-rewarding language文章中,感受到3轮自我提升似乎是大语言模型的饱和极限了。


而此次OpenAI新模型,除了在训练时,通过增大参数量和数据量,得到了性能上的提升,同时通过增加推理时间——也就是前面所说的模型在自我内部思考的时间——得到了能力上的提升。


也就是说,如果模型未来自己和自己思考的时间越长,得到的答案可能会越准确。这很接近于我们对AI的终极想象了——像最早在AlphaGo中所展现出来的,AI通过自己和自己下棋,提升自己的棋艺。


OpenAI的新模型,展现出的,是一条新的大模型的提升路径。


Jim Fan在X上的一句话令人耸动:“之前,没人能将AlphaGo的成功复制到大模型上,使用更多的计算让模型走向超人的能力。目前,我们已经翻过这一页了。”


回看2023年,许多人在问,Ilya看到了什么?


大家都怀疑是一个超级强有力的模型——是的,此次发布的o1模型确实很强。


但或许,更有可能是这个——推理层面的scaling law的发现,再一次让人们意识到,超人的AI,或许不再遥远。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: