正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-07-30 16:26

苹果AI版iOS抢先体验:部分任务表现超越GPT-4

本文来自微信公众号:量子位,作者:克雷西,原文标题:《苹果AI版iOS首日火爆:聊天秒变高情商,大模型成最强嘴替,Siri华丽变身》,题图来自:视觉中国

文章摘要
本文介绍了苹果AI版iOS首日火爆,包括Siri的全面升级和写作功能的强大表现,以及苹果基础大模型在任务表现上超越GPT-4的成绩。

• 💬 苹果AI版iOS带来的新Siri功能让用户体验更加智能化和便捷化

• 📝 苹果自家大模型在指令遵循、文本总结等任务上表现超越GPT-4,取得出色成绩

• 🧠 苹果基础模型经过精心训练和优化,采用一系列独创算法,表现突出且安全性高

它来了它来了,苹果的Apple Intelligence终于与果粉见面了!


随着iOS 18.1 Beta版的上线,注册开发者从即日起就能体验到苹果AI的部分功能。


最明显的一处就是Siri的全面换新,变身成了Apple Intelligence & Siri。



另一项重磅更新就是写作功能了,它可以帮忙润色推特评论,三下五除二就能把高级表达方式安排起来。



甚至dirty words也能分分钟变得儒雅随和:



开启Apple Intelligence后,苹果自研的端侧大模型就会被下载到设备当中。



根据手快的网友体验反馈,不像其他家的AI那样动不动就是拒绝服务。



与此同时,苹果自家大模型的报告也已出炉,披露了大量技术细节。


报告显示,在指令遵循、文本总结等任务上,苹果云端大模型取得了超过GPT-4的成绩。



苹果基础大模型团队负责人庞若鸣(Ruoming Pang)也表示,其模型与一些同类最佳模型相比具有竞争力。



庞若鸣是普林斯顿计算机博士,本硕分别毕业于上海交大和南加州大学,于2021年加入苹果,此前在谷歌担任了15年的工程师。


Apple Intelligence的主要对话功能,正是由他率领的团队研发的模型提供支持。


这次他还强调,这些基础模型“并不是聊天机器人”,而是支持广泛的功能,包括摘要、写作帮助、工具使用和代码。



另外,苹果也研发了许多自研算法,为提高模型表现提供了加持,具体信息也在报告中被披露。


还有细心的网友从中发现了华点:


苹果大模型的训练用的是谷歌TPU集群,英伟达含量竟然为零。



Siri升级,但ChatGPT暂未接入


要想体验到苹果的Apple Intelligence,需要满足的条件有不少。


首先,搭载它的iOS 18.1 Beta版目前是99美金一年的注册开发者限定,所以普通用户还得等等。


还有就是之前说过的,只支持M系和A17 Pro芯片,也就是说iPhone中只有部分地区的15 Pro和15 Pro Max能用。


除了硬件和身份要求,系统设置也需要修改,要将地区设置为美国,且设备和Siri的语言都要改成英语。


满足了所有这些要求之后,就可以……加入等待队列了。



此次上线的Apple Intelligence是部分功能,主要围绕文本生成、Siri和相册这几个模块。


先说文本生成,作为苹果AI的重要组成部分,该功能的视适用范围不局限于苹果官方应用。


只要使用标准输入文本系统,在第三方应用程序当中也能利用该功能进行文本总结、校对和重写。


另外结合iOS 18 Beta的语音备忘录中已经上线的音频转录功能,文本生成系统还可以为录音生成摘要。



第二个比较重要的更新就是Siri了。


界面上,新版Siri不再是一个圆形图标,在运行时会有环绕屏幕的彩色光不断闪动。


而且还给不想语音对话的用户提供了文本对话方式,双击屏幕底部即可调出键盘,与Siri打字交流。


内容方面,新版Siri将能够解答与苹果产品相关的问题,帮助用户进行故障排除。


另外,新的Siri还可以够理解从一个查询到下一个查询的上下文,例如要求Siri创建日历事件,然后请求创建提醒,而无需重述正在谈论的内容。


不过,之前介绍的屏幕感知功能,并未包含在此次Siri 的更新当中。



相册的更新则让用户可以用自然语言搜索特定照片,甚至是视频当中的具体时刻。



以上就是本次开发者测试版本中有关AI的大致内容,需要指出的是,这只是之前发布会上所展示的功能中的一部分,还有很多没有上线。


特别地,之前提到过的ChatGPT集成,此次更新也暂未接入。


解密苹果大模型


苹果已经说过,ChatGPT在苹果AI中不是必选项,主要功能是由自家的大模型驱动。


而关于这个模型,苹果也在上线的同时发布了全面的技术报告。


模型的名字简单粗暴,就叫苹果基础模型(Apple Foundation Model,简称AFM),有端侧(on-device)和云侧(server)两个版本。


端侧模型的参数量在3B左右,云侧则未具体透露,只说是比端侧更大,二者都有32k的上下文窗口。



训练过程英伟达含量为0


模型的训练通过自家基于JAX的AXLearn框架进行,并采用了张量并行、流水并行等策略。


硬件则采用的是谷歌TPU,其中云侧用了8192颗TPUv4芯片,端侧用了2048颗TPUv5p芯片,总之英伟达含量为0。



数据则主要来源于通过Applebot爬取的网页,以及有公共许可的代码和数学数据集。


值得一提的是,苹果选用的数据集中无一使用GPL,都是MIT、Apache、CC0这些开放程度更高的开源协议。



流程上,AFM的预训练过程共分三个阶段——核心训练、继续训练和上下文延长。


在核心训练阶段中,云侧版本的数据量有6.3T tokens,窗口长度为4096,端侧版本则是在此基础之上蒸馏得到。


继续训练时,低质量数据的权重会被降低,并使用数学、代码以及获得授权的高质量数据,对模型能力进行提升。


该过程使用了1T tokens的数据,窗口长度也从4096变成了8192。


到了下一阶段,窗口长度被进一步扩充到32k,涉及长序列文本和合成数据,总量为100B tokens。


独创强化学习新算法


AFM的后训练则包括指导监督微调(SFT)、人类反馈强化学习(RLHF)等工作。


其中SFT阶段使用了合成数据与人类标注数据,合成数据主要关于数学、工具使用和代码。


而在RLHF阶段,苹果自创了iTeC和MDLOO两种强化学习算法。


iTeC全称Iterative Teaching Committee,可译作“迭代教学委员会”,是一种用于强化学习后训练的算法,旨在通过多轮迭代优化模型的性能。


其核心思想是结合不同的偏好优化算法,包括拒绝采样、直接偏好优化(DPO),使得模型能够从多种优化策略中受益,从而提高其对特定任务的适应性和性能。


在每次迭代中,iTeC会从最新的模型中选择一组表现最好的模型,形成一个“模型委员会”。这些模型是经过SFT、RS、DPO/IPO和RL等不同训练方法得到的。


通过收集人类对模型响应的偏好反馈,iTeC不断更新其奖励模型,并用于训练新的模型集合。


每收集一批人类偏好数据后,iTeC会刷新其奖励模型,并训练新的模型集合,以此循环进行多轮迭代,逐步提升模型性能。


MDLOO则是一种在线强化学习算法,特别设计用于优化模型的响应质量。


作为在线算法,它能在模型训练过程中实时解码响应,并应用RL算法来最大化奖励。


也就是说,这种方法使得模型能够在训练过程中不断学习和调整其策略,以生成更符合人类偏好的响应。


具体实现上,它结合了留一法(Leave-One-Out,LOO)优势估计器和镜像下降策略优化(MDPO),以实现更稳定和有效的策略更新。


端侧混合精度量化


为了让端侧模型更高效运行,同时避免占用过多内存资源,苹果对AFM的端侧版本进行了量化操作。


具体来说,苹果采用了混合精度的量化方式,针对不同环节采用了不同的量化精度。


苹果采用的方式被称为“调色板”策略,在调色板量化中,权重不是每个单独量化,而是将它们分组,并让组内的权重共享相同的量化常数。


对于投影权重,每16列/行共享相同的量化常数,并且使用K-means算法进行4位量化。


针对嵌入层,由于是输入和输出共享的,采用了8位整数进行每通道量化,另外还有某些重要性相对较低的层被进一步压缩到2位量化。


为了恢复量化后损失的性能,以保持模型的输出质量和准确性,苹果还引入了准确性恢复适配器(Accuracy-Recovery Adapters)


该适配器是小型的神经网络模块,可以插入到预训练模型的特定层中,在量化模型的基础上进行训练,通过微调来学习如何补偿量化带来的影响。


部分任务超越GPT-4


应用了一系列优化技术之后,也到了验收模型表现的时候了。


在这过程中,苹果采用了人类评估与自动化评估相结合的策略。


先说人工评估,评估人员设计了涵盖分析推理、头脑风暴、聊天机器人等方面的多类问题,并让模型生成相应。


同时,问题也会被提给用于对比的其他模型,然后由评估人员评判哪个模型的输出更好。


结果,无论是云侧还是端侧模型,都有至少60%的概率不输给Llama 3、GPT-4等对比模型。



其余的测试主要利用数据集实现。


在指令遵循能力上,苹果进行了IFEval测试,结果在指令和prompt两个层次上,云侧AFM都超过了GPT-4,成为了新的SOTA。


端侧模型的表现,也超过了Llama 3-8B、Mistral-7B等近似规模的模型。


在AlpacaEval当中,端侧和云侧AFM也都取得了第二名的成绩。



再看具体任务上的表现,AFM在写作类Benchmark当中的总结任务上取得了SOTA,撰写任务上也与第一名接近。



数学上,苹果用GSM8K和MATH两个数据集进行了评估。


结果端侧模型在GSM8K上不敌Llama 3-8B和微软的Phi 3 mini,云侧被GPT-4和Llama 3-70B超越,但优于GPT-3.5。


MATH上的成绩相对高些,端侧版领先了同规模模型,云侧版也超越了Llama 3-70B。



性能之外,安全性也十分重要,苹果通过人工方式对AFM抵御对抗性攻击的能力进行了评估。


结果显示,AFM在面对对抗性提示时,实现的违反率显著低于其他开源和商业模型。



以上就是苹果大模型技术报告中一些值得关注的内容,更多详情可参阅报告原文。


One More Thing


虽然Apple Intelligence已经提供给开发者进行测试,但彭博社爆料说,正式版可能会延迟上线。


的确,按照苹果此前的版本发布规律,18.1的版本号也意味着,这些功能不会随着9月的新机发布一同上线。


对此分析师Gene Munster建议,苹果应该考虑推迟iPhone 16的发布日期,以与Apple Intelligence保持一致。


至于库克会不会考虑这个建议,就拭目以待了。


报告地址:

https://machinelearning.apple.com/research/apple-intelligence-foundation-language-models

参考链接:

[1]https://x.com/reach_vb/status/1818014366555586611

[2]https://www.cnbc.com/2024/07/29/apple-releases-apple-intelligence-its-long-awaited-ai-features.html

[3]https://www.tomsguide.com/phones/iphones/ios-181-developer-beta-is-live-with-apple-intelligence-heres-all-the-new-iphone-ai-features

[4]https://www.businessinsider.com/apple-intelligence-delay-wont-hurt-new-iphone-sales-analysts-2024-7



本文来自微信公众号:量子位,作者:克雷西

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: