正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-08-02 16:41

小扎力挺AI开源和生态背后,藏着怎样的野心?

本文来自微信公众号:四木相对论,作者:四木相对论,原文标题:《黄仁勋对话扎克伯格:力挺AI开源和生态背后,藏着怎样的野心?》,题图来自:视觉中国

文章摘要
文章讨论了英伟达CEO黄仁勋与Meta创始人扎克伯格的对话,以及他们对AI开源和生态建设的看法。

• 💡 黄仁勋和扎克伯格认为“人人都拥有自己的AI”是未来发展的趋势

• 🌟 扎克伯格介绍了Meta推广的AI Studio,希望赋予人们创建自己Agent的能力

• 🚀 文中详细介绍了Meta发布的开源模型Llama 3.1以及扎克伯格对开源AI的看法

一场AI对谈大戏又上演了。‍‍‍‍‍‍‍


近日,英伟达 CEO黄仁勋与 Meta 创始人兼CEO 扎克伯格在 2024年顶尖计算机图形大会(SIGGRAPH 2024)上畅聊数十分钟。


这一次,他们聊了AI应用和开源等等话题。黄仁勋还表示 Meta 可能是英伟达最大的客户之一——毕竟,Meta最新发布的开源模型Llama 3.1最大版本拥有 4050 亿参数,在超过 16000 个 NVIDIA H100 GPU 上进行了训练。


我们提取了两位AI大佬对谈中的重点观点。其中,黄仁勋和扎克伯格都认为“人人都拥有自己的AI”是值得期待的方向,开源和建立生态是值得鼓励的趋势。另外,黄仁勋还重点提及了Nvidia的 NIM平台。


诚然,黄仁勋和扎克伯格看好的方向想象力满满,但经过我们的长期观察,发现无论是“个人AI”,还是“开源模型”,现阶段都存在不少真实的落地难题。


表面上看,两位大佬此次对话带有酷炫的畅想性质,但闲聊背后隐藏着的,是两家AI巨头此时的商业策略。


推出AI Studio:人人都能有自己AI


人人都有自己的AI,是不少AI公司早已提出的idea。这种idea的To C场景,包括端侧厂商提出的个人助理,还有Coze、Dify等Agent开发者平台。To B方向包括各类企业对外服务的AI助手。


但经过一年发展,我们看到个人AI这一idea还处于早期阶段。比如对个体来说,在Coze这类平台上开发效果较佳的Agent,依然需要掌握一定技术能力。对企业来说,不少Agent依然只是玩具,不能进入核心场景。并且,无论是To B还是 To C方向的个人AI,都强依赖模型本身的“智商”,效果难以保障。


我们认为,各个AI厂商如果要推出这类产品,不仅需要持续优化模型,同时还需要在产品端迭代,让功能更易上手——在底层模型差距不大的情况下,产品功能和“审美”,决定了先发优势。‍‍‍‍


在这次对话中,扎克伯格介绍了meta正在推广的全新工具——AI Studio(AI 工作室)


“我们的愿景是,不会只有一个 AI 模型。有些公司似乎在构建一个中央Agent,但我们会提供一个 Meta AI 助手供大家使用。更重要的是,我们希望赋予所有使用我们产品的人创建自己Agent的能力。” 扎克伯克在对谈中提到。


而AI Studio正是实现这一愿景的工具之一。


AI Studio演示


他接着介绍道,AI Studio是一套工具,最终将使每个创造者能够建立一个自己的 AI 版本,作为他们社区可以互动的 Agent 或助手


“无论是平台上的众多创作者,还是数以亿计的小企业,我们最终希望能够整合所有内容,并迅速创建一个业务代理,以便与你的客户互动,进行销售和客户支持等。”


在Meta官网中,我们可以看到更为具体的介绍和用例的分享:


  • AI Studio 基于 Llama 3.1 构建。通过它任何人都可以创建、发现和分享 AI 角色,并且允许创作者将这些AI角色作为自己的延伸,回答各类问题,以吸引更多粉丝。 创作者 AI 的回复都有明确标记,因此粉丝可以完全了解情况。


  • AI Studio提供丰富的提示词模版以及手把手的“分步指南”帮助用户制作自己的AI,用户可以根据自己的兴趣爱好自定义 AI 角色的名称、个性、语气、头像等。


案例:


  • Eat Like You Live There:厨师墨菲开发,可为用户在旅行时提供个性化建议,让用户了解当地的饮食习俗。


  • What Lens Bro: 摄影师安琪开发的AI,告诉用户如何找到最合适的拍照角度。



    “Meta认为,人们不应该只与一个大型 AI 进行互动。我们相信,如果世界上存在更多样化的内容,将变得更加美好也更有趣。” 扎克伯格补充说,“我相信在不久的将来,就像现在每个企业都有一个电子邮件地址、网站和社交媒体账户一样,未来每个企业都会有AI Agent来与客户互动。”


    黄仁勋也十分认同AI Studio的作用,也畅想了自己对于“个人AI”的使用,比如使用 AI Studio 来优化自己的图片集,利用AI助力记录“记忆”。


    “我喜欢你(扎克伯格)关于这个愿景的想法,每个人都应该有一个 AI,每个企业都应该在我们的公司有一个 AI。我想让每个工程师和每个软件开发者都拥有一个或多个 AI。”黄仁勋说。


    谈开源:“谈到封闭平台,我会很生气”


    最近一年,模型开源和闭源一直是持续性争议话题。目前确定性的趋势是,开源和闭源模型的技术能力日益趋近。但在实际操作中,企业选择落地闭源或开源模型的考量标准非常复杂。


    有落地大模型的企业告诉“四木相对论”,由于人力成本和训练经验有限,自家公司并不会选择很多人看好的开源模型。还有些企业由于算力资源所限,只会选择调用API的形式。


    从厂商角度,对大模型公司来说,将小参数模型开源,提供更大参数模型的商业化服务是一种选择。但对Meta这类并不以大模型为主营业务的公司而言,开源首先可以狙击更多潜在对手,另外还能建立生态,提高业务覆盖面。


    从“人人都要有自己的AI”话题引到开源,黄仁勋问出了大众都好奇的问题——“Meta的开源哲学是从何而来?


    扎克伯格也非常大方地做了分享:


    • 在其他科技公司之后,Meta才开始建设分布式计算基础设施和数据中心,已经失去竞争优势,于是决定“开放”,Meta将从围绕它的生态系统中受益。Meta有很多这样的项目。


    • 通过开源,Meta的开放计算某种程度上成为了行业标准,M实际节省了数十亿美元。


    • 回顾过去,移动平台给整个行业带来了巨大的推动力,因为相对封闭的生态,苹果在这一代中显然是赢家。


    • 但情况并不总是如此,在个人电脑时代,Windows 是领先的生态系统。虽然它不是一个完全开放的公司,但与苹果相比,Windows 运行在由不同的 OEM 和不同的软件、硬件上,是一个更加开放的生态系统。


    • 封闭系统带来了很多限制,“我想要构建很多东西,然后却被平台提供商告知‘不,你不能真正构建它’”所以为了“下一代(计算平台)”的建设,需要开放的平台。


    “我对下一代的计算抱有希望,那就是我们将会回到开放生态系统占主导地位的那个时代。再次强调,总是会有封闭的和开放的两种选择。我认为两者都有其合理性,都有其好处。我并不是在这个问题上偏执。”扎克伯格补充道。


    就在几天前,Meta发布了最受关注的开源模型——Llama 3.1,根据Meta提供的基准测试数据,其405B(4050亿参数),从性能上已经可媲美GPT-4o和Claude 3.5。


    Llama 3.1 405B和GPT-4o以及Claude 3.5的对比


    Meta将其视为里程碑式的标志,因为,在此之前,开源大型语言模型在功能和性能方面大多落后于封闭式模型。


    “而现在我们正迎来一个由开源引领的新时代。” Meta 公开表示。


    和模型一起发布的,还有一篇扎克伯格的公开信,即《开源AI是前进之路(Open Source AI Is the Path Forward)》,在这封公开信中也能看到另一些在对谈中没有体现的思考:


    • 比如,开源Linux的流行和成功,最初是因为它允许开发人员以他们想要的方式修改它的代码,而且更便宜。之后随着时间的推移,它变得更先进、更安全,并逐步成为行业的标准。他相信人工智能将以类似的方式发展,Meta将朝着开源AI成为行业标准的方向迈出下一步。


    • 再如,他认为“开源AI代表了世界上利用这项技术为每个人创造最大的经济机会和安全的最佳机会。”


    不仅是AI领域,在AR/VR领域,同样保持开放。今年4月,Meta宣布为 Meta Quest 系列头显(包括最新的 Meta Quest 3)提供支持 Horizon 操作系统将向第三方厂商开放,供其据此构建硬件。


    NVIDIA NIM:Llama生态的代表案例


    NVIDIA NIM 微服务是NVIDIA提供基于NVIDIA推理软件的预构建容器,包括 Triton 推理服务器™ 和 TensorRT™-LLM,使开发者能够将部署时间从几周缩短至几分钟。


    有资料显示,NIM 微服务为部署 NVIDIA、A121、Adept、Cohere、Getty Images 和 Shutterstock 的模型,以及谷歌、Hugging Face、Meta、微软、Mistral AI 和 Stability AI 的开放模型提供了快速且性能出色的生产级 AI 容器。


    目前在市面上,帮助企业和开发者快速部署模型的大厂平台和独立平台非常多,并且还有持续增加的趋势。我们观察到,目前这类平台比拼的标准包括推理速度、模型数量、模型测试功能等。


    由NVIDIA提供这类平台,较大的优势是能够快速和硬件结合,整体提升模型的推理速度和用户的综合体验。对英伟达来说,这也是完善生态壁垒的一步棋。‍‍


    在对话中,黄仁勋也拿出了英伟达与Meta的合作案例——NVIDIA NIM(Nvidia Inference Microservices)云原生微服务和AI Foundry,这也是今年英伟达在SIGGRAPH 的重头戏。


    “AI Foundry提供了包括Llama在内的多种技术工具,帮助企业的优秀工程师们将他们所在公司的数据、知识转换在能负担得起的成本范围内为AI,并将其转变为可供使用的AI服务(即NIM),部署运行到公司的业务飞轮当中。”黄仁勋说。


    Nvidia NIM作为一种工具简化和加速AI应用的部署。NIM可将模型作为优化的“容器”,这些容器可部署在云端、数据中心或工作站上。在理解方面,Llama 3.1为NIM提供了支持。


    三个小扎透露的小彩蛋:


    • 关于 Llama 4 模型及其更高级版本的体验将不再局限于简单的聊天机器人模式。它将能够根据你的意图独立工作,跨越多个时间框架。


    • 随着生成式 AI 技术的进步,推荐系统很快就会进入一个新的阶段, Instagram 上推荐给你的大部分内容将不仅仅是基于你关注的人,而是来自世界各地与你的兴趣相匹配的内容。其中一部分内容最终将根据用户的需求即时生成,或是通过整合全球各地的不同资源来创造的。


    • 智能眼镜会成为下一代计算平台的移动版,混合现实头戴设备则更像工作站或游戏主机,当你想进行更沉浸式的会话时,你会坐下来使用更多计算能力。眼镜体积很小,有很多限制,就像你不能在手机上做同样水平的计算。


    本文来自微信公众号:四木相对论,作者:四木相对论

    本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
    如对本稿件有异议或投诉,请联系tougao@huxiu.com
    打开虎嗅APP,查看全文
    文集:
    频道:

    支持一下

    赞赏

    0人已赞赏

    大 家 都 在 看

    大 家 都 在 搜

    好的内容,值得赞赏

    您的赞赏金额会直接进入作者的虎嗅账号

      自定义
      支付: