正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-06-22 20:55
苹果的AI不是AI,这正是我最期待的地方

本文来自微信公众号:果壳 (ID:Guokr42),作者:Jesse,编辑:卧虫,题图来自:视觉中国

文章摘要
本文介绍了苹果发布的“AI”系统,探讨了其与传统大模型AI的区别以及隐私保护措施。

• 💡 苹果的“AI”系统注重个人语境,通过构建私人知识库提供个性化服务

• 🚀 苹果采用本地模型和云端模型相结合的架构,保证用户数据隐私安全

• 🔒 对隐私保护问题严格控制,采取高级别的隐私承诺和安全实践

苹果终于发布了自己的“AI”,尽管它并不是AI。


把AI解释为“Apple Intelligence(苹果智能)”的缩写,总会让人回想起当年在上海,杰克马面对一龙马,将AI释为“Alibaba Intelligence(阿里智能)”的尴尬时刻。


过去这些年,当众多厂商都在迫不及待地给产品冠以各种“AI”之名时,苹果却从未这么做,它坚持使用“神经网络”“机器学习”等词语,并表示“这样描述才更准确”——面对“人工智能”这一概念,苹果始终保持着极大的克制和谨慎


是AI,但又不是AI。尽管来迟,但不妨碍所有人都将这次发布会视为苹果迈入AI时代的关键一步。发布后一周,苹果股价暴涨10%。


除名字之外,苹果这套AI系统和其他大模型AI项目依然有着根本区别。苹果的模型参量要小得多,终极目标也不是要训练出“通用人工智能”。它最关键的任务,是将人们对AI的想象,从“洞悉一切的全知神”,变成“了解用户的贴身助手”


make智能手机智能again


WWDC24上发布的苹果智能,从功能上可以分为三大部分:文字、图像和Siri。



其中,文字和图像相关的功能,包括文章改写、总结、语法检查、生成图片、智能P图,都是大家很熟悉的生成式AI能力。因为这部分功能所使用的端侧模型相对较小,不难预见,它的效果很可能比不上GPT-4o等云端大模型。


苹果AI真正的革命性变化,在于Siri。


AI模型的支持,对Siri进行了一次“史诗级加强”。它理解语言的理能力增强了,并且可以跨app进行信息检索、调用功能。更重要的是,苹果提出了一个极为关键的概念——“个人语境”(personal context)



简单来说,“个人语境”包括了你的iPhone及其他苹果设备上正在发生的一切。比如接下来的日历事项安排、最近拍过的照片、浏览过的网页记录、朋友发送给你的链接、文件……


苹果AI会利用这一切的私人数据,来构建一个“私人知识库”,用户则可以通过自然的对话交互,获取自己需要的信息,找到对应的手机功能。


比如在AA账单时,问“昨天朋友发给我的吃饭小票是多少钱?”在订机票时问“我的护照号码是多少?”Siri会从相册里找出护照页的照片,并提取号码;



这是AI与智能手机结合的焦点,是让AI变得“真正有用”的关键钥匙。目前我们熟知的大模型大都是利用公共的语料数据进行训练,形成的知识也是一种“通识”,但普通人使用计算机和互联网时,大部分时间都是在创造和使用私人信息


特别是智能手机已如此普及的今天,它几乎就是我们人生的“记忆库”,储存着大量的照片、通讯记录、偶尔灵光一闪写下的笔记……这些数据在堆积之后,逐渐变得越来越难整理,而AI则有可能帮我们重新挖掘、组织这些记忆。


基于“个人语境”来构建模型和私人知识库,以及如何将部分知识与通识模型进行结合,将会是未来苹果AI发展的关键


一切为了“隐私”


技术上,苹果AI分为了三个大部分,对应三套模型


首先是运行在手机上的“本地模型”,其次是运行在苹果全栈自研服务器上的“云端模型”,最后它还可以在系统层接入OpenAI的GPT,后续还会接入更多第三方AI模型服务。


通过这种方式来搭建架构,是因为苹果需要谨慎而迫切解决的问题,是隐私


根据目前苹果放出的技术资料,苹果AI首先会从系统层面收集各种信息,生成一个“语义目录”,也就是“个人语境”的基本数据单位,供模型进行理解。第三方app里的数据也有对应接口,经开发者适配后,可以实现类似效果。


这些数据会经过语言和图像两个模型进行理解,之后如果本地模型的算力不够,在用户需要的时候,系统则会整合这部分语义数据,发送到苹果的服务器上,通过云端更大的模型进行理解。


这一套“语义目录”包含了用户最敏感的个人数据,其中很多还是在后台默认采集,才能实现“Siri了解了你”的神奇效果,过程中用户可能无法很明确地知道具体哪些数据被采集了。



所以,为了实现这部分功能的隐私安全,苹果作出了不少努力和牺牲


苹果所部署的本地模型参量虽然比不上云端大模型的千亿万亿级,但也有约30亿的参量。所以只有搭载A17 Pro芯片的iPhone 15 Pro系列,以及M1以上芯片的iPad和Mac才支持这一功能,考虑到大部分用户都会主力通过iPhone使用苹果AI,这可能会极大影响到苹果AI早期的冷启动。包括本地模型运行时的负载,可能也会影响手机的日常发热、续航表现。


而针对云端模型和服务器,苹果也拿出了最高级别的隐私安全实践。苹果承诺不会在模型服务器上储存任何用户信息;只有当用户主动请求时才会调用云端模型介入;云端模型所使用的芯片全都是苹果自研,没有任何第三方芯片;最后,苹果表示所有的隐私承诺将经过第三方验证。


直到这一步,用户所有的数据和GPT等第三方大模型,都是严格隔离的。针对GPT的接入,苹果则做了产品层面的明显区分,只有用户“主动输入”的信息,才会以prompt的形式发送到GPT,且过程中苹果会进行二次确认,提醒用户“接下来将会跳转到GPT”。


考虑到苹果已经在iCloud上储存了大量的用户数据,且多年来从未出现过大的泄漏安全事故,苹果在AI上采取的超高级别的隐私承诺似乎有点夸张。但事实证明一切还是有必要的,就在发布会后不久,Elon Musk就针对苹果AI的隐私问题展开了攻击,暗示用户使用苹果AI就会把数据泄露给OpenAI,尽管这一揣测还没有什么真实依据。


对苹果AI来说,隐私问题本身或许还能通过技术和产品设计解决,但由隐私问题所衍生出这一套分散的模型架构,才是真正的隐患和难题。



如果苹果AI一直高度依赖本地算力,考虑到模型规模和性能负载,它采集数据的颗粒度可能就会受到限制,停留在比较粗糙的层面,难以实现大模型那么顺畅的理解和交互。


目前在苹果AI的介绍页面里,整个“个人语境”还只能采集系统自带官方app的信息。第三方开发者要如何适配AI?会不会积极适配AI?还要打上不少个问号。


过去,苹果推出过多个系统内的便捷API,比如能够在相册app里直接利用第三方app的编辑工具修图,以及“快捷指令”和“App Clips小程序”,这些开发套件都没有得到第三方开发者的积极适配,因为接入这些便捷功能反而会影响app本身的活跃和留存。类似的问题,很可能也会在苹果AI上重演


所以,苹果AI所面临的隐私问题,其实只是一连串难题的开始。与大模型“大力出奇迹”的发展方法论不同,想要将AI与手机结合,就必须重新设计整条技术链路。


从数据如何采集,过程中保证安全,训练拟合时如何追求效率和效果,到输出时如何转化为产品的功能……这和训练大模型,做一个“聊天机器人”完全不同


谨慎地期待,耐心地等待


大模型AI落地的主要难题,在于“产品化”。


大模型诞生的过程,靠的是构建一个巨大的神经网络,这个神经网络是单一的,难以被hack,更难拆分。


就像GPT目前严格来说依然只有ChatGPT这一个应用,大模型是封装好的单一系统,并不能像传统的计算机程序一样,所以就难以定义功能、产品化


目前围绕ChatGPT所做的那些产品,基本都是通过prompt实现的,并不具备一个产品所需要的严谨性,它依然偶尔会返回错误的结果,致命的地方则在于这些错误无法被debug。


苹果AI显然不是一个简单的“语言模型”。它其中有一部分功能是基于大模型的生成能力做的,但也有另外一部分功能明显更像是“加强版的机器学习”,比如Siri的搜索能力。只不过这些功能被装到了同一个篮子里,这个篮子叫“苹果智能”



根据苹果放出的技术文档,目前苹果的云端模型,主要处理的还是文字、图像相关的“生成性”任务;而最关键的“个人语境”构建和Siri的优化,大部分依然是通过本地实现,它的“智能程度”可能很难得到保证。


这不只是苹果一家的问题。目前还没有任何一个AI企业或手机厂商,成功将一个私人的数据库,与大模型的公共知识库成功结合,创造出新的智能体,即想象中的完全了解用户的智能助手——解决这个问题的难度,比想象中大得多。


按照苹果公布的开发进度,至少在明年之前,我们都无法用上中文版的苹果AI,很显然,大量的功能代码和模型训练工作都还没有完成


过去一年我们用“涌现”这个词来形容大模型的能力发展之迅速,但真正到了与实用场景结合的时候,事情依然要复杂得多,需要更长的等待。


序幕拉开了,但表演还没有开始。


本文来自微信公众号:果壳 (ID:Guokr42),作者:Jesse,编辑:卧虫

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: