正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-05-22 09:10

60多项更新,Copilot无处不在,微软“包圆”了AI的所有想象

本文来自微信公众号:硅星GenAI (ID:gh_e06235300f0d),作者:张潇雪


微软的开发者生态,从下面这样:



变成了这样:



这样:



这家公司从错过移动互联网的机会,到成为生成式AI时代目前最大的赢家和定调者,真是走过了很长的路。


当微软CEO萨蒂亚-纳德拉站在2024年Build大会的现场时,他首先致敬了创始人比尔-盖茨:


开场动画中,年轻的比尔盖茨出现在一台老电脑中,描述微软的愿景——“我希望信息对所有人触手可及”,然后视频直接跳转至今天。纳德拉的微软,已经“让这个愿景变为让智能对所有人触手可及”。


“我记得Win32,.NET,Azure被第一次讨论的那些时刻。”纳德拉说。“这些我参加的PDC和Build被我用来标记我的人生。”而现在,显然纳德拉拥有了属于他自己的时刻。


从更多Copilot强大功能、重新定义的AI PC,到使用新AI能力的工具堆栈——一切都是关于Copilot。



1、GitHubCopilotExtention:帮开发者解放生产力


“公司成立近50年后,我们重新定义软件开发。”


纳德拉把GitHub Copilot描述为“这个AI时代的第一款热门产品。”作为最广泛采用的AI开发工具之一,GitHub Copilot已经拥有来自5万家组织的180万订阅用户。而今,微软又进一步与100多家合作伙伴推出GitHub Copilot Extensions,打造了一间属于开发者的“生产力应用商店”。



开发者可以使用Copilot Studio或Teams Toolkit,通过新引入的Copilot连接器快速自定义扩展。选择自己喜欢的工具和服务,直接在workspace用自然语言调用并一站式构建和部署到云端,无需离开IDE或GitHub.com,从而更长时间地保持稳定通畅的工作流。



例如在以前,当开发者收到数据库错误警报时,需要查看GitHub issue、审计日志、错误监控等多处来获取上下文信息,找出解决方案、撰写代码并部署。整个过程涉及很多不同工具,需要不断切换上下文,效率较低。


而现在,Copilot Extention将整个过程整合在一起。只需在GitHub Copilot Chat里下达指令,就能轻松调用所有这些工具来执行操作、生成文件和拉取请求,极大加速了工作流。



1、TeamCopilot:专业高效的团队助手


微软还重磅推出Team Copilot功能,将Copilot从个人助理扩展到了团队环境中,服务于整个部门和组织,提高团队协作和项目管理效率。



演示视频中,Team Copilot能够充当各种团队角色:


会议主持人:管理议程、记录会议笔记,任何与会者都可以共同编辑,让讨论更加高效。


团队协作者:帮助大家更好地利用聊天功能,提取最重要信息,跟踪行动项目,解决遗留问题,并在团队达成解决方案后自动更新笔记面板,详细记录决策过程。


项目经理:创建和分配任务、跟踪截止日期,并在需要团队成员输入时通知他们,确保每个项目顺利进行。


作为一款面向团队的强大工具,Team Copilot承了各种复杂细致的繁琐工作,并将任务瞬间清晰规划,大大节省了团队成员之间的沟通成本。Team Copilot可以在Teams、Loop、Planner等平台上使用,将于今年晚些时候开放预览。


1、CopilotStudios定制AI代理,主动替你干活的虚拟员工


另外,此次微软也紧跟AI Agent趋势,推出了具有代理功能的Copilot。与OpenAI的“her”语音助手实时对话、Google的Project Astra识别物体与地理位置不同,微软的AI代理更注重帮用户异步执行工作流程。


“我们很快意识到,仅限于对话的Copilot在当今所能做的事情上是非常有限的,”微软业务应用和平台的公司副总裁Charles Lamanna在接受The Verge采访时解释道。“与其让Copilot等待有人与其聊天,不如让Copilot更主动,能够在后台执行自动化任务。”



通过Copilot Studio,任何人都可以构建像虚拟员工一样的Copilot。只需提供一个工作描述和必要的知识和操作,Copilot就能在后台代替你工作,并以异步方式执行任务。“这种拥有异步行为能力的Copilot和代理,是明年将发生的重大变化之一。”纳德拉在演讲中表示。



它将不再闲置一旁等待你来查询,而是能够监控email收件箱,自动化员工通常手动完成的一系列任务或数据输入。你还可以授权Copilot自动化长时间运行的业务流程,当它遇到不了解或无法处理的情况时甚至会请求帮助。


想象一下这个场景,在你作为新员工入职的第一天,一个Copilot会来主动迎接你,利用HR数据回答你的问题,为你介绍同事、提供培训,帮助你填写表格并安排你的第一周会议。再比如,一个“订单处理”Copilot可以处理端到端的订单履行流程——从接收订单、处理订单、对缺货商品进行智能推荐和替代、到将商品运送给客户。对于它可能给人力带来的威胁,微软也强调,Copilot代理不是要“取代”你,而是要“为你所用”。


此外微软还简化了基于SharePoint和OneDrive数据创建Copilots的过程。这些功能目前在早期访问计划中向客户开放,并在2024年晚些时候更广泛发布。


1、GPT-4o全面接入,Phi-3小模型家族上新


整场演讲中,GPT-4o仍然是微软大力推崇的对象之一。纳德拉兴奋表示,今天有超过5万个组织在使用Azure AI,而这一切都始于微软与OpenAI的重要合作伙伴关系。



“最新的多模态模型GPT-4o正是在Azure上训练的,这是一个绝对的突破,上周OpenAI展示的东西真的如同魔法一般!现在GPT-4o已经可以在Azure AI上使用。"



在现场,微软播放了一段使用新推出的Copilots+PC将GPT-4o所有本领集大成的演示视频:


用户把一双鞋举到电脑摄像头前问GPT-4o:”我今晚要去露营,会很冷。我应该穿这些鞋吗?”


GPT-4o看了看,回答说那是徒步凉鞋,并不是寒冷天气的最佳选择。用户打断了GPT-4o,请求帮他选最合适的产品并加到购物车。GPT-4o接着像个老伙计一样一边解释边完成了操作,还无缝切换了西班牙语对话。


整个过程一气呵成,效果惊艳,再次引来现场一片掌声。


除了GPT-4o,微软开发的AI小语言模型(SLMs)Phi-3系列也发布了一款新的多模态模型——Phi-3-vision,与之前已的Phi-3-mini和Phi-3-medium一起,通过Azure AI的模型即服务产品提供给用户。



至此,整个Phi-3家族已经有了四名成员:


Phi-3-vision:具有语言和视觉能力的42亿参数的多模态模型。


Phi-3-mini:38亿参数语言模型,有两种上下文长度(128K和4K)。


Phi-3-small:70亿参数语言模型,有两种上下文长度(128K和8K)。


Phi-3-medium:140亿参数语言模型,有两种上下文长度(128K和4K)。



值得一提的是,作为演讲最受期待彩蛋,被CTO Kevin Scott形容为”全地球头号大忙人“的Sam Altman也现身大会现场,为微软站了会儿台。



奥特曼表示,未来GPT-4o将变得更快,但更便宜。他也透露了关于GPT-5的一点小提示,表示很高兴下一个大模型即将到来,微软为此建造了一台更大的超级计算机。


新模式和整体智能将是OpenAI下一个模型的关键。“最重要的事情听起来可能是我能说的最无聊的事情……模型总体上只会变得更聪明,”奥特曼说。



1、从基础设施、数据到Windows平台,构建最完整技术栈


纳德拉把微软定义为一家平台公司,“我们的目标是构建最完整的端到端技术栈,从基础设施到数据、工具,再到应用程序的可扩展性,使你能够利用这项技术的力量构建自己的应用程序。”


因此除了Copilot和模型,在硬件生态层,微软也表示具备最完整、可扩展的AI基础设施,满足AI时代的所有需求。坐拥全球超过60个数据中心区域,比其他任何云提供商都多。过去六个月里增加30倍超级计算能力,并将Azure AI服务提供的国家数量增加了四倍。



微软采用的AI加速器来自Nvidia和AMD及自己的Azure Maya。今年晚些时候,微软将引入Nvidia最新的H200 GPU,成为首批提供Nvidia Blackwell GPU的云服务商之一,并将Nvidia的Omniverse Cloud和DGX Cloud与Microsoft Cloud深度集成。



它也是首家将AMD MI300X AI加速器芯片用于客户AI训练和AI推理的云服务提供商。Azure ND MI300X v5虚拟机系列已正式发布,针对高需求AI,以及诸如Azure OpenAI Service的高性能计算(HPC)工作负载进行了优化。



同时,微软自研的Azure Maya第一个集群也已经上线,将支持部分Copilot和Azure OpenAI服务。并宣布基于去年11月发布的定制硅芯片开放全新的Cobalt 100 Arm-based虚拟机(VMs)公开预览。与同类型Azure虚拟机相比,Cobalt 100 Arm-based虚拟机的性能提升达40%。



数据层面,微软的智能数据平台Microsoft Fabric推出了全新的实时智能(Real-Time Intelligence)。提供端到端的软件即服务解决方案,不仅帮助数据分析人员获得简单的低代码或无代码体验,也能通过代码丰富的用户界面让专业开发者受益。让客户能够对海量的、时间敏感的高颗粒度数据采取行动,更快制定业务决策。


为了让独立软件供应商和开发者能够在Fabric中扩展应用程序,Microsoft Fabric也推出工作负载开发套件(Workload Development Kit),保证构建程序的灵活性、定制化和效率。



来到Windows平台,针对此前发布的一系列集成最新AI功能的Copilot Plus PC。纳德拉表示,得益于新的Windows Copilot Runtime,公司现在在Windows 11上运行了超过40个即插即用的AI模型。



它包括一个API库,包含Studio Effects、实时字幕翻译、OCR、用户活动回忆和Phi Silica等现成的AI API。开发者可以利用这些API为自己的应用服务,并配有专门设计的AI框架和工具链,使他们能够在Windows上发布自己的设备端模型。微软正用一切努力证明“Windows是AI的最佳开放平台”。



1、拥抱各大合作伙伴


除了与Nvidia、AMD深度合作,本届Build大会上,微软还宣布了与Hugging Face扩大合作关系,将更多Hugging Face模型引入Azure AI Studio。


并将与打造出“首个AI程序员”的Cognition携手,把Cognition的自主AI软件代理Devin带给客户,帮助他们完成代码迁移和现代化项目等复杂任务。作为双方协议的一部分,Devin将由微软智能云Azure提供支持。


微软也宣布和可汗学院(Khan Academy)达成多元合作伙伴关系,为美国所有K-12教育者免费提供AI教育助手Khanmigo for Teachers,捐赠Azure AI优化的基础架构权限。可汗学院则会借助微软开发的小型语言模型(SLM)系列Phi-3最新版,探索以经济实惠、可扩展、适应性强的方式改进数学辅导。这项合作具有巨大的社区意义,宣布时线上评论区一片沸腾。



在演讲中,纳德拉称微软一直有两个梦。“如何让机器理解人,而不是让人理解机器;以及在信息爆炸时代,电脑如何帮我们整理,规划和更高效处理信息。”而现在生成式AI让微软有机会实现这些梦。


显然,纳德拉的这种叙事,是在把这波浪潮描述为微软早就预料和期待的技术革命,也把微软定义为生成式AI的预见者和领导者。


而从今天微软的位置来看,他的这个叙事的确正在成为现实。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: