正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2023-11-16 14:41
微软5纳米自研芯片来了,可与英伟达H100一战?

本文来自微信公众号:新智元 (ID:AI_era),作者:新智元,原文标题:《可与H100一战,微软首款5纳米自研芯片震撼发布!Copilot引爆办公全家桶,Bing Chat改名》,题图来自:Microsoft Ignite

文章摘要
本文介绍了微软首款5纳米自研芯片的发布,以及微软Copilot的全面升级和重命名。文章还提到了微软的定制芯片Azure Maia 100和Azure Cobalt 100的特点和性能。此外,还介绍了微软在AI领域的合作和开发者工具的推出。

• 微软发布了首款5纳米自研芯片,与英伟达的H100竞争。

• 微软的AI助手Copilot进行了全面升级,包括引入自定义GPT和Bing Chat改名。

• 微软推出了定制芯片Azure Maia 100和Azure Cobalt 100,具有优秀的性能和特点。

微软炸场,万物皆可Copilot。


Bing Chat,从此更名为Copilot。


登录微软账号,就可以在Copilot专属网站上免费使用GPT-4、DALL·E 3。


OpenAI的全新王牌爆款——自定义GPT,也被塞进Copilot宇宙,变身为Copilot Studio。


打工人利器Office,也在Copilot的加持下全面升级。


而且,微软终于也开始制造定制芯片了。两款为云基础结构设计的定制芯片——Azure Maia 100和Azure Cobalt 100在昨晚闪亮登场。



全线改名Copilot,自定义GPT来了


今天,微软Copilot全面迎来了新时代。


在Ignite 2023 大会上,纳德拉宣布Bing Chat和Bing Chat for Enterprise,正式更名为Copilot!


除了Edge,Copilot可以在Chrome,Safari浏览器上网页运行,并且很快上线移动设备。


当然,Copilot免费版可以在必应和Windows中直接访问,还有一个专门入口(https://copilot.microsoft.com/)


Microsoft 365中的Copilot依旧需要付费。



Microsoft 365的Copilot目前仅限于微软最大的客户,企业必须至少达到300个用户,才能进入AI驱动的Office助手的名单,每位用户每月收费30美元。


今年年初,微软还曾提到与谷歌搜索竞争的AI野心,但现在看起来,这家老牌巨头显然把目光投向了ChatGPT。


在OpenAI宣布每周有1亿人使用ChatGPT后,Bing Chat直接更名。


这不得不让外界猜想,尽管有价值数十亿美元的密切合作关系,但微软和OpenAI仍在争夺相同客户,而Copilot,就是微软试图抛给消费者和企业的最佳选择。


值得一提的是,微软大会还发布了低代码工具——Microsoft Copilot Studio。


与OpenAI可以定制的GPT还是有所不同,它是可以扩展到Microsoft 365。


其优势在于,Copilot Studio可以在同一网页上进行构建、部署、分析、管理内容。


更重磅的是,Copilot Studio无缝集成OpenAI的GPTs,允许开发者构建自己的GPT。


另外,Copilot Studio还有一个可以分析的仪表板,管理员可以集中监视使用情况并进行分析,在管理中心内控制访问权限。



微软还在Dynamics 365 Guides集成了Copilot,将生成式AI与混合现实相结合,帮助一线员工完成复杂的任务。


未来,工程师无需搜索大量文档或纸质手册,仅通过自然语言和手势就能查询信息。


微软自研芯片来了


此前,坊间曾传出传言:微软在悄悄构建自己的芯片,用于训练大语言模型,避免对英伟达过度依赖。


现在证实了,传言是真的。


今年的大模型热,让H100的需求激增,单块甚至在eBay上卖出了超过4w美元的价格。


这块大蛋糕,微软绝对不会放下,Azure Maia和Azure Cobalt CPU明年就会上市。


SemiAnalysis深度分析:https://www.semianalysis.com/p/microsoft-infrastructure-ai-and-cpu


Azure Maia GPU(Athena/雅典娜)


虽然微软是四巨头(亚马逊、谷歌、Meta、微软)里最后一个发布产品的,但这次的Maia 100 GPU却毫不逊色。


在算力方面能与英伟达(H100)和AMD(MI300X)一战,在网络IO方面遥遥领先,而在显存带宽方面则稍显落后。与目前使用第二代Trainium/Inferentia2芯片的亚马逊相比,纸面上的各项指标都实现了碾压。



具体来说,Maia采用的是台积电5nm节点工艺,拥有1050亿个晶体管的单片芯片。并支持微软首次实现的8位以下数据类型,即MX数据类型。


算力方面,Maia在MXInt8格式下,算力可以达到1600 TFLOPS,在MXFP4格式下则为3200 TFLOPS。


由于是在LLM热潮出现之前设计的,Maia的显存带宽只有1.6TB/s。虽然这比Trainium/Inferentia2高,但明显低于TPUv5,更不用说H100和MI300X了。此外,微软采用的是4层HBM,而不是英伟达的6层,甚至AMD的8层。


据业内人士分析,微软当时在芯片上加载了大量的SRAM,从而帮助减少所需的显存带宽,但这似乎并不适用于现在的大语言模型。


Maia的另一个有趣之处,便是微软对网络的处理。


就AMD和英伟达而言,它们都有自己的Infinity Fabric和NVLink,用于小范围芯片的高速连接(通常为8个)。如果要将数以万计的GPU连接在一起,则需要将以太网/InfiniBand的PCIe网卡外接。


对此,微软采取了完全不同的方式——每个芯片都有自己的内置RDMA以太网IO。这样,每个芯片的IO总量就达到了4.8Tbps,超过了英伟达和AMD。



为了充分发挥出Maia的性能,微软专门打造了名为Ares的机架和集群,并首次采用了Sidekick全液冷设计。


这些机架是为Maia高度定制的,比标准的19"或OCP机架更宽。


具体来说,微软在一个机架上搭载了8台服务器,其中每台服务器有4个Maia加速器,也就是共计32个Maia芯片。除此之外,还会配备网络交换机。


此外,Maia机架的功率可以达到约40KW,这比大多数仍只支持约12KW机架的传统数据中心也要大得多。


值得注意的是,微软使用的是自己从第三方获得SerDes授权,并直接向台积电提交设计,而不是依赖Broadcom或Marvell这样的后端合作伙伴。


Sam Altman表示,第一次看到微软Maia芯片的设计时,自己和同事感到非常兴奋。而OpenAI也已经用自己的模型(GPT-3.5 Turbo)对Maia进行了改进和测试。


就在昨天 ,Sam Altman刚刚宣布访问量激增超出承受能力,Plus账号注册暂停


Azure Cobalt CPU


CPU方面,Microsoft Azure Cobalt是一款基于Armv9架构的云原生芯片,针对通用工作负载的性能、功率和成本效益进行了优化。


具体来说,Azure Cobalt 100 CPU共有128个核心,并支持12条DDR5通道。


与微软第一款基于Neoverse N1的Arm CPU相比,基于Neoverse N2的Cobalt 100在性能上提升了40%。



与Arm传统的只授权IP的商业模式不同,Neoverse Genesis CSS(计算子系统)平台可以使CPU的开发更快、更容易,且成本更低。





就Cobalt 100而言,微软采用的是2个Genesis计算子系统,并将它们连接成1个CPU。





Arm此前曾表示,有一个项目从启动到完成芯片只用了13个月。根据业界推测,这里提到的很可能就是微软。



可以说,微软花了许多心思。在设计上的独具匠心,不仅让它具有高性能,还能控制每个内核和每个虚拟机的性能和功耗。


目前,微软正在Microsoft Teams和SQL Server等工作负载上测试Cobalt CPU,计划明年向客户提供用于各种工作负载的虚拟机。


重新思考AI时代的云基础设施


实际上,微软在芯片开发上有着悠久的历史。


20多年前,微软就曾参与Xbox的芯片设计,后来还为Surface设备设计了芯片。2017年,微软就开始构建云硬件堆栈。


Azure Maia AI芯片和Azure Cobalt CPU都是在微软内部构建的,微软对整个云服务器堆栈进行了深入检修,以优化性能,功耗和成本。


用微软硬件系统负责人Rani Borkar的话说,“我们正在重新思考人工智能时代的云基础设施,并从字面上优化该基础设施的每一层。”


现在,微软、AMD、Arm、英特尔、Meta、英伟达和高通在内的公司,都在标准化AI模型的下一代数据格式。


微软:我们和英伟达是互补,不是竞争


跟H100、H200,甚至是AMD最新的MI300X比较,Maia的性能如何呢?


Borkar回避了这个问题,而是重申微软与英伟达和AMD的合作对于Azure AI云的未来很重要。“重要的是,在云运行的规模上优化和集成堆栈的每一层、最大限度地提高性能、使供应链多样化,为客户提供基础设施的选择。”


据悉,要实现ChatGPT的商业化,OpenAI需要30000块A100,如果用微软自研的芯片,显然会降低AI成本。


考虑到目前AI领域的速度,Maia 100的继任者很可能会和H200相同的速度推出,也就是大概20个月后。


随着微软本周推出更多的Copilot功能和Bing Chat的品牌重塑,Maia必然会大显身手。


GPT性能/总拥有成本


对于芯片来说,最重要的是性能。


在推理方面,需要注意的是,微软所做的内存权衡是非常不利的,这使得微软很难与之竞争。


H100的内存带宽是其2倍多,H200是其3倍,而MI300X甚至更高。


因此,在LLM推理方面,Maia 100的性能处于劣势。就每秒处理更大批大小的token而言,GPT-4推理的性能大约是 H100的1/3。


值得注意的是,这本身并不是一个大问题,因为制造成本与英伟达的巨大利润率弥补了大部分差距。


问题是,电源和散热仍需要更多成本,而且token到token的延迟更差。


在聊天机器人和许多协同Copliot工具等对延迟敏感的应用中,Maia无法与英伟达和AMD GPU竞争。


后两种GPU都可以使用更大的批处理量,同时可接受延迟,因此它们的利用率会更高,性能TCO也比Maia高得多。


在GPT-3.5 Turbo等较小的模型中,情况要好一些,但微软不能只部署针对小模型的优化硬件。因为随着时间的推移,GPT-3.5 Turbo等小模型将被逐步淘汰。


不仅在硬件上强强联合,微软会上还宣布将英伟达AI代工厂服务(Nvidia AI Foundry)引入Azure。


不仅有英伟达的基础模型、NeMo框架、DGX Cloud AI超算以及服务全部集成到微软Azure平台,向企业和开发者开放。



数学推理飙升50%,27亿参数Phi-2开源


开发者方面,微软在自家的Azure AI上提供了从数十亿到数万亿不等的基础模型。


纳德拉现场激动地表示,OpenAI团队做了非常出色的工作推动AI的前进,我们将继续推进深度合作。


他现场承诺:只要OpenAI一更新,微软就会在平台全部交付。



OpenAI首届开发者大会上的模型更新,同样上线微软开发者平台。其中,包括GPT-4 Turbo,以及GPT-4 Turbo with Vision,DALLE·3。


另外,微软还将提供GPT-4的微调功能。这样,开发者可以调用自己的数据去微调自定义的GPT-4。


至于定价,微软与OpenAI保持一致。



同样,微软Azure AI还支持开源模型。


开发者能够轻松地将Stable Diffusion、Llama 2、G42 Jais等最新的模型,通过API集成到应用中。


另外,微软还宣布了全新的小体量模型——Phi-2,仅有27亿参数,并将在未来开源。


最新Phi-2模型,同样是在教科书级数据上完成训练,比前身Phi-1.5更加强大,在数学推理上的性能飙升50%。



除了模型,为了进一步降低开发者门槛,微软还推出了全链条开发工具——Azure AI Studio。


它提供了完整周期的工具链,是一个端到端的平台,包括模型的开发、训练、评估、部署、定制等等。


参考资料?

https://www.theverge.com/2023/11/15/23960345/microsoft-cpu-gpu-ai-chips-azure-maia-cobalt-specifications-cloud-infrastructure

https://www.semianalysis.com/p/microsoft-infrastructure-ai-and-cpu

https://www.theverge.com/2023/11/15/23960517/microsoft-copilot-bing-chat-rebranding-chatgpt-ai

https://www.microsoft.com/en-us/microsoft-365/blog/2023/11/15/introducing-microsoft-copilot-studio-and-new-features-in-copilot-for-microsoft-365/


本文来自微信公众号:新智元 (ID:AI_era),作者:新智元

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: