扫码打开虎嗅APP
本文来自微信公众号:海外独角兽 (ID:unicornobserver),作者:haina,Siqi,编辑:Siqi,题图:由AI生成
市场在AI基建环节的巨大成本投入和实际收入增长之间的差距有多大?这是美国红杉在AI's 600B Question中想要探讨的问题。在红杉美国的计算中,现阶段AI Capex投资加总后,对应的AI回报应该在6000亿美元,且这6000亿美元应该是最终端应用能创造的收入。
在新技术早期就要求终端实现大规模实际收入并不现实,AI的6000亿美金问题的核心是,作为投资人,应理性把握AI大规模放量的时间线。为了理解终端用户对GenAI的态度和应用深度,我们梳理了2024 Q2的几篇CIOs调研,发现企业端部署GenAI呈现出如下趋势:
IT budaget视角下,企业部署AI/LLM的速度不断提升,企业对GenAI的重视带动了data-readiness的需求;
受限于模型能力、成本、和现有工作流耦合成本等因素,企业端放量的时间线和半年前相比在放缓,但CIO们认为,到2025年,GenAI一定会进入到massive adoption阶段;
“如何用好AI”正成为企业大规模部署GenAI过程中新的阻碍,其中既包括企业对AI工具的理解不够,也有市场供给的原因,即暂时还没有能满足企业部署AI的工具(或vendor)。
……
除了CIO调研,我们也根据earnings call对AGIX Index覆盖的公司表现进行了追踪。:
Microsoft(MSFT)、Amazon(AMZN)等头部云厂商在价值链上的重要位置仍在Enterprise AI主题下延续,虽然短期财报层面部分数据表现不及预期,但并不影响其中长期的价值;
软件板块,ServiceNow(NOW)、Palantir(PLTR)、Cloudflare(NET)、Elastic(ESTC)等因为能帮助企业有效部署GenAI,已经开始在AI主题下有了积极的商业转化,同样值得布局。
一、企业侧GenAI渗透速度比想象中更快
1. 企业部署GenAI的速度在加快
虽然训练、推出新一代SOTA模型的周期在拉长,但大企业采用AI并没有降速。
2023年是AI在企业端渗透率最快的一年。在麦肯锡的调研中,AI在企业侧的渗透率从55%增长到72%,增长了17个百分点,如果把AI缩小到GenAI的范围,则速度更加惊人,过去一年从33%增长到65%,增长了一倍。
Source:The state of AI in early 2024:Gen AI adoption spikes and starts to generate value,May 30,2024|Survey,McKinsey&Company
企业分配给AI的预算支出也在增加。根据Morgan Stanley发布的2024Q2 US Tech Report,2024年Q2,企业AI/ML相关的项目预算增速为16.3%,Q1时为13.7%。企业前10大项目开支中增速没有下降的只有CRM Application(+2.3个百分点)和Storage HardwareData(+1个百分点),而这两个板块也是企业部署AI的关键设施。
Source:2Q24 CIO Survey–Stable Budgets,Nervous CIOs,Morgan Stanley
2. 2025年将迎来GenAI在企业侧的massive adoption
即便所有受访企业都已经认知到GenAI的重要性,但不同规模企业部署AI的阶段不同。
根据UBS发布的企业在AI领域的支出调研,绝大多数中大型企业用GenAI的状态主要集中在研究use case做概念验证和小规模测试部署这两个阶段。其中,45%的大型企业已经开始小规模测试部署,40%的大型企业已经明确了自己的use case并开始进行概念验证,中型企业在这两个阶段分别为44%和38%。
小型企业则恰恰相反,主要集中在两端。在调研中既有25%的小型企业已经进入到规模化部署阶段,也有25%还处于调研阶段。之所以有更高比例的小型企业能快速规模化部署AI可能和企业规模小带来的决策灵活性、工作流相对而言并不复杂、更加成本敏感等因素有关,而另有25%仍处于调研环节则可能和企业的技术储备、自身业务发展roadmap相关。
Source:U.S Software,AI Survey of Enterprise Execs,June 2024,UBS
但总体上,我们可以乐观预计,到2024年末,会有更多中大型企业扩展GenAI在企业内的部署规模,甚至开始将其应用到更广泛的业务流(In production at scale across units)当中,2025年会迎来GenAI在企业侧的massive adoption。
如果不能正确认知模型“渐进式解锁”的特点,就会高估短期内的模型能力进展,和LLM真正作用于实际业务的速率。这一点也体现在CIO们AI/LLMs真正应用到企业生产的时间线的预期变化上。从2023年Q3到2024 Q2,CIO们对于用AI的时间线预估明显在放缓。
在2023年Q4的调研中,市场对于GenAI的应用周期最为乐观:1/3的受访者认为,半年后GenAI就可以被用于企业的实际业务生产中(in production),与此同时,1/3的企业表示对于如何使用GenAI还没有任何计划。
到2024 Q1和Q2时,企业对于timeline的判断则趋于审慎乐观,在2024 Q2最新的调研中,受访者中,26%的人预期在2025年后才会看到AI/LLMs进入到企业生产流程中,25%的人认为会在2024 H2出现。
Source:2Q24 CIO Survey–Stable Budgets,Nervous CIOs,Morgan Stanley
3. 中短期内,企业的GenAI用例还是集中在内部场景
在过去4个季度中,企业用户对于如何在内部使用AI/LLM的观点也在发生变化:
将内部生产力提效作为部署AI/LLM目标的企业从15%增长到了23%,从第3提升至第1;
将AI/LLM用于优化劳动力成本(例如客服、财务等板块业务流程的简化)的企业从10%提升至18%;
虽然仍旧是前3大用AI/LLM部署的方向,但提升客户满意度目标预期则从19%下降至15%,从第1降至第3位。
Source:2Q24 CIO Survey–Stable Budgets,Nervous CIOs,Morgan Stanley
这一变化相当有趣,企业对于GenAI的预期从偏对外的、前台业务场景转向了内部降本增效,侧面反映出在过去9个月的企业的AI/LLM尝试在哪个场景任务中更加有效。在这种共识下,我们预计,中短期内,企业还是会更多的将AI用于内部场景中。
尽管Gen-AI的潜力正被普遍认识,但Bain调研显示目前只有约35%的公司能清晰描述如何从Gen-AI中创造商业价值。从探索阶段向大规模实施的完全转变,可能不会像我们预期的那样迅速,而是一个3-5年的渐进过程。
为了量化GenAI的价值潜力,麦肯锡选择用GenAI会带来的影响金额、以及对功能性支出(funcitonal spend)的影响占比对企业不同GenAI用例场景进行预测分析。
在所有的功能板块中,GenAI对市场营销与销售(Sales&Marketing)、软件开发(Software Engineering)、企业内IT(Corporate IT)和客户运营(Customer operations)以及产品研发(Product R&D)等几个板块产生的影响最明显,在GenAI每年带给企业影响总规模中,这几个板块总共占到了75%左右。
Source:The economic potencial of generative AI,June 2023,McKinsey&Company
除了能直观感受到用例集中外,我们也发现,客服、软件开发、企业IT服务这几个板块的GenAI价值潜力既体现在带来的影响金额足够大,也体现在这些金额占functional spend的比例足够高(达到30%~40%)。而Sales&Marketing的GenAI价值潜力则主要来自于这两类use case带来的绝对金额。
4. “如何才能用好AI?”是企业大规模部署GenAI的阻碍
在前面我们提到,企业规划部署GenAI的目标时,增长最快的板块是内部生产力的降本增效部分,而直面客户、提高用户体验则从2023Q3的第一名(占比19%)在2024Q2下降至15%,这一变化也是不同用例在过去一年中实际效果和用户满意度的结果体现。
比如,在Bain的AI Survey中,从2023年10月到2024年2月,企业用户对销售运营、软件代码开发、市场营销、客户服务等领域的AI应用满意度有一定提升,其中,销售运营从76%提升至82%,软件开发从77%提升至81%,但在法律、运营和人力资源等领域,企业用户对于AI效果的满意度下降却十分明显,法律从71%下降至53%,运营从81%下降至65%。整体上,企业对于AI use case的满意度相对于2023年末略微下降。
Source:AI Survey:Four Themes Emerging,June 2024,Bain&Company
企业对AI在不同任务上满意度的变化其实也反映了当下企业部署AI的会遇到的最大的摩擦力:预期和模型能力之间的不匹配。
对于文本属性强、简单重复性工作,LLM基本能够满足用户预期,但涉及到复杂推理、domain knowledge和复杂context的任务,受到模型能力的限制,这种预期偏差会更加明显。
对于AI use case没能达到预期的主要原因,企业用户认为是模型性能和输出质量是主要因素,分别有43%和42%的受访者提到了这一点,但需要指出的时候,从2023年10月到今年2月,这两个因素占比其实是下降的,其中输出质量这一因素下降了9个百分点,模型性能则下降了1个百分点。
相较于模型能力对AI use case负面影响的下降,“如何用好AI”反而逐渐成为新的阻碍因素。例如,受访者中有38%的人认为,之所以AI的使用不及预期是因为“使用者对如何有效利用AI工具的理解不够”,这一占比上升10个百分点,增长最多的则是“没有满足企业使用需求AI的vendor或工具”,有接近1/3的受访者提到了这一点,相较于2023年10月增长了16个百分点。
Source:AI Survey:Four Themes Emerging,June 2024,Bain&Company
也正因为目前还没有足够好用的工具满足企业用AI的需求,因此在布局AI时,企业选择自建(Do-it-yourself application)的比例高于选择现成产品(Off-the-shelf application)。但这一偏好根据细分场景和任务有所不同:
在软件开发、营销与销售以及知识工作者提效等通用性较强的领域,第三方解决方案相对成熟,因此企业自行开发和采购第三方方案接近1:1,并且随着第三方方案的不断进步和成熟,预计未来将有更多的企业选择现成方案,以提高GenAI的实施效率,我们相信,能率先做好这类通用任务的软件将会更快获得企业用户;
当涉及到具体的domain knowledge或者企业敏感数据、复杂context等非通用型任务时,企业明显会更偏好自己开发对应工具。
Source:AI Survey:Four Themes Emerging,June 2024,Bain&Company
Klarna就是一个典型的例子,Klarna CEO表示,团队内部的AI Assistant Kiki就是Klarna团队自己开发的。除了因为当时市场上并没有满足需求的产品外,我们认为,还有一个因素在于Kiki以及其他类似的AI项目都是团队内自下而上的试验,所以不太存在先争取预算购买vendor服务或产品,再开发内部AI工具的流程。
数据完备度(data readiness)是企业AI用例部署速度、实施效果的重要影响因素。根据Bain的AI Survey,截至2024年2月,仅有5%的企业觉得自己在数据网完备度上已经准备充分,67%的科技公司和69%的非科技公司认为自己的data readiness还不够,资源、数据安全这两个影响因素情况类似。可以预见的是,为了更好地部署AI,企业会在数据相关领域持续投资。
Source:AI Survey:Four Themes Emerging,June 2024,Bain&Company
二、企业是如何用AI的
按照场景划分,目前企业的LLM用例主要在以下几方面:
1. 企业搜索:最LLM-native的场景
企业搜索是LLM带来的新场景。LLM的核心能力之一是分析和学习大量结构化和非结构化数据,并理解其中的结构和含义,将信息转化为知识并传递给人类。大模型的“知识发现”能力体现在消费者端是对Google等通用搜索的改造,带来了perplexity这样的公司,在企业侧,企业内部的知识管理也会因此发生变化。
除了ServiceNow、Glean这类提供End-to-End的搜索服务外,类似于Elastic这样的帮助企业产品中嵌入LLM搜索、提供RAG服务的底层引擎也会在这个过程中获益。
Use Case:
构建企业专属的Wikipedia:
根据Klarna CEO Sebastian的公开分享,Klarna除了用AI改善客服效率外,还推出了一个内部AI助手,Kiki。Kiki是Klarna内部的知识图谱,可以直接在Slack中调用。员工既可以用Kiki来搜索具体的信息和文档,还可以直接和Kiki对话获取想要的答案。Kiki推出1年以来平均每天要回复超过2000次提问,85%的Klarna员工通过Kiki来即时找到对应的内部资料,公司内的信息分发效率也由此提升,在公司管理层看来,Kiki已经成为Klarna重要的企业资产。
根据ServiceNow的观察,企业搜索是现阶段ServiceNow用户的GenAI高频场景之一。在此之前,企业用户想要搜索公司内的某些信息时,只能根据关键词搜索,得到的结果也是内部知识库链接,但在LLM支持下,员工企业内部各个部门的知识库搜索到需要的内容,利用LLM生成总结内容。
ServiceNow在最新的earnings中提到,生物科技公司TriMedx主要将NowAssist用于IT业务的信息搜索,开发人员生产力由此提升了22%,三个月内团队中50%的开发人员都开始积极使用NowAssist。
同样提供企业搜索服务的Glean也提到,Webflow在引入Glean后,团队因此节省的工作时间超过300小时,在此之前,因为这些信息散落在lack、Zendesk、Jira、Confluence和Google Drive等超过20个产品和数据源头上,所以团队成员要找到某个具体内容相当麻烦。综合测算下来,部署Glean的ROI达到了3倍。在Glean的帮助下,Webflow还优化了新员工的入职流程。同样部署Duolingo预计通过Glean每月能节省超过500小时的工作时间,这相当于每年节省的价值超过110万美元。
2. AI客服:LLM渗透最快的场景
我们在对AI客服公司Kore.ai的分析中提到过,目前高达50%的客服互动都属于简单直接的类型(例如密码重置、包裹查询、退货),根据Morgan Stanley的报告,目前全球大约有1700万名客服人员,所代表的劳动力市场约2000亿美元。除了是典型的重人力场景,企业有极高的降本动力外,客服场景的任务特性也和LLM能力高度契合,因此,LLM出现后,我们认为现在是关注AI客服市场的好时机,事实上,AI客服也确实是LLM渗透最快的场景之一。
Use Case:
• Klarna:
Klarna CEO曾公开分享过团队的AI客服实践。AI assistant是Klarna基于OpenAI模型推出的AI客服工具。在部署的第一周,Klarna AI assistant就已经处理了230万的客服需求,占到了公司客服请求的2/3,相当于700名全职人工客服的工作,AI还将解决客户问题的平均时间从11分钟缩短至2分钟,预计会为Klarna带来了约4000万美元的利润增长,而现阶段Klarna收入在20亿美元左右,所以AI带来的利润改善相当可观。
为了保证AI客服的输出质量,比如要让模型理解Klarna的业务、客服场景下使用的语言规范等。在搭建AI客服的过程中,除了使用了RAG架构,还从一开始就系统性地构建了专门的文档和手册。
• Walmart:
用AI chatbot响应、解决需求也可以用在业务合作场景中。Walmart也在尝试使用chatbot自动化供应商谈判。在与89家供应商的试验中,chatbot与64%的供应商成功达成了交易,平均节省了1.5%的成本,并延长了35天的付款期限,加强了供应链效率。
3. Sales&Marketing:
不论是CIO调研,还是海外独角兽团队的实际访谈中,都能明显感受到Sales and Marketing都是LLM应用比较广的场景:
• Sales&Marketing相关任务和LLM的文本生成能力相当契合;
• 这些场景下,文本需求量极大,例如,SEO这类任务中需要大量的内容产出;
• 和客服场景的“降本”动机不同,Sales&Marketing中引入LLM还包含有企业获得收入增长的预期,例如通过给sales提供AI copilot来实现更高的销售转化率。
Use Case:
• Walmart“Ask Sam”:
Ask Sam是Walmart为店员工设计的智能助手,它能够回答员工的各种问题,比如在店内找到特定商品、查询价格等。这个工具不仅提高了员工的工作效率,还优化了店内的操作流程,让员工能够更快速、更准确地完成日常任务。
4. 产品开发:和生产力最近的场景
产品开发可以分为两类,一类是涉及到代码相关的任务,一类则非代码类任务,在这两类场景中,我们也都分别都观察到了LLM用例。
代码生成:
代码生成是普及度最广的LLM use case,虽然目前模型的代码生成能力还不能直接代替工程师,但对代码写作效率的提升已经得到验证。在Duolingo的案例中,因为引入GitHub Copilot,内部开发速度提高了25%,代码审查的响应时间缩短了67%,Duolingo的CTO Severin Hacker强调,对于管理着庞大代码库的企业来说,GitHub Copilot尤其有效,它能帮助团队更高效地管理和扩展技术栈。
Github Copilot在2021年10月初次推出,当时是基于120亿参数量的OpenAI CodeX,随着GPT的不断迭代,Github Copilot的代码能力不断提升,也从自动补齐渗透到更多开发环节中。Github Copilot是目前使用最多的Coding工具,在UBS调查中占65%。Copilot对于GitHub的增长推动也很明显,现在GitHub的年收入已达到20亿美元,占今年GitHub收入增长的40%以上。
Source:U.S Software,AI Survey of Enterprise Execs,June 2024,UBS
除了采用Github Copilot、AWS Code Whisper等代码生成产品,也会有一些公司选择自己开发,基于开源模型、利用公司内部代码库进一步训练模型,从而更好的针对公司业务需求提供帮助,例如VMWare就采用的是HuggingFace的StarCoder模型。
惠普则是把GitHub Copilot、GitHub Enterprise、Azure DevOps和Visual Studio综合到一起,构建了一个高效的软件开发生态系统,改进了开发者工具链、管理平台,以及支持开发社区的应用程序。这使得他们能够更快地编写和审查代码,同时也提高了对旧代码的评估和更新的效率。
内容生成:
在产品开发中,除了代码环节,还有一部分文本类任务也可以通过LLM来实现,这一点在教育类公司上体现最为明显。
Duolingo CEO Luis von Ahn在财报会上提过,在GPT-4之前,Duo Radio这一新功能的开发上线可能要5年时间,但在GPT-4的帮助下,团队可以更快速、大规模地生成内容,所以只用了3个月就上线了,除了Duo Radio外,因为LLM内容生成速度足够快、质量更加稳定、成本更低,因此团队有机会做更多的产品测试来帮助产品迭代,把Duolingo做A/B test的优势最大化。此外,因为LLM的引入,Duolingo在去年还砍掉了一批外包翻译人员,缩减了产品开发成本。
OpenAI投资的Speak也将LLM用在了课程开发上,不过和Duolingo相比,他们使用得还比较浅,更多是借助LLM进行brainstorming。
5. 垂直场景
因为构建垂直场景下的LLM Copilot要求更多的行业knowhow,并且在一些情况下还需要考虑到企业数据安全等问题,因而现阶段,LLM在这些场景中提供的功能仍围绕通用任务和场景展开,但也正如在CIO调研中呈现的,金融、法律等场景下,LLM已经显现出成本降低的效果。
Use Case:
• 电商:
Sidekick是Shopify开发的AI助手,是一个all-in-one的电商copliot,底层模型是在Llama2的基础上结合Shopify自有数据fine-tune。
对于商家来说,Sidekick除了能帮助实现库存管理、商品上架、物流追踪等后台任务自动化之外,还能提供更智能的业务和订单分析,并且在Q&A的方式就可以完成,能够理解、解决商户的个性化问题。
• 法律:
在海外独角兽之前对于LLM和LegalTech结合的分析中,我们提到LLM对法律行业最直接的影响体现在提升10x效率,因为培养、雇佣律师的成本都非常高,LLM可以用来协助律师查找法条及案例,起草、审核合同等基础、重复性工作,让律师专注制定核心方案策略。
全球房地产投资公司GTIS Partners使用Robin AI来优化尽职调查问卷(DDQ)的流程。他们的挑战是DDQ文档没有集中存储,查找困难,所以完成DDQ需要在海量的文档中搜集信息,需要至少5到10天。Robin AI在这个场景中,就像是企业DDQ专属的Perplexity,员工现在只需打开Robin AI,利用其搜索功能,就可以在短短1至3天内搜集到完成DDQ所需的全部信息。
• 金融服务:
Morgan Stanley开发了基于GPT4的AI助手,作为财富顾问快速访问公司知识库的Copilot,在处理客户咨询时发挥了重要作用。这个AI助手使员工能够迅速找到相关信息,为客户提供专业、准确的答复。它还能帮助分析市场趋势,提供投资建议,并推荐合适的金融产品。
三、AGIX Top Picks
除了CIO调研,在近期的财报季中,我们综合云厂商、关键软件公司的表现,也能够明显感受到,企业客户对于AI的ROI是相当认可的,也许短期内企业部署AI的进度和深度低于热钱的过度预期,但长线来看,当前是不错的布局点。
Thesis 1: 企业大规模部署LLM会成为云厂商的AI新叙事
除了模型竞赛外,在2025年,企业大规模部署LLM相关应用会成为云厂商的增长叙事之一。首先,LLM会加速云的渗透,根据UBS Survey,仅有13%受访者企业选择on-prem的方式来部署LLM,另一方面,企业部署AI规模扩大势必也会带来inference cost的增加,从而带来云厂商收入的增加。
• Microsoft(MSFT)
虽然微软本轮财报中,Azure增速不及预期,但中长期来看,我们仍旧很看好Azure以及MSFT的位置。根据2024 2Q数据,微软总体销售和利润增长超出预期,但一致汇率下Azure云服务收入同比增速30%,在此前指引的下限,低于投资者预期。
短期的业务波动不会影响我们看好MSFT的大逻辑:微软的AI布局值得bet。微软Azure会持续受益于OpenAI的“独家”云基础设施提供商身份。OpenAI模型在企业用户中仍是首选模型。
除了模型服务外,微软也正从企业对数据管理需求的增长中获益。随着客户寻求更全面的集成解决方案,微软Synapse数仓产品与AI技术栈一起销售的策略占据优势。同时,与Databricks的紧密合作,可能会增加客户对Azure核心数据存储服务的需求。
应用端,GitHub Copilot也推动了GitHub的增长,GitHub年收入达到20亿美元,而Copilot占GitHub今年收入增长的40%以上。不过,微软365 Copilot短期Adoption可能并不理想:虽然微软CEO Satiya在最新的电话会议中表示老客户订阅在增加,但没有透露任何数据。
• Amazon(AMZN)
我们看好AMZN的逻辑和MSFT相似。首先,AWS是最大的CSP,根据UBS的调研,AWS是企业用户在GenAI场景下仅次于Azure的选择,并且在市场份额上还在追赶,在模型服务层,AWS和Anthropic的合作相当深度,Anthropic的Claude Sonnet 3.5发布后在开发者端迅速收获了高口碑,而3.5系列模型的陆续发布极大可能会推动AWS获得更多客户和市场份额。
和微软相比,AWS对中小企业更友好,尤其对start-up更友好。在销售策略上,微软预期通过AI来推动其他产品的销售,比如推动Office365和Windows的销售。而Amazon就更开放一些,如果我们相信AI会产生一个新的独角兽或者产生一个新的颠覆式的公司,那么这个公司很有可能是AWS的客户。
Thesis 2: 帮助企业更好地部署AI
在前面的调研中,关于AI use case不及预期的问题上,模型能力对AI use case负面影响的下降,“如何用AI”反而逐渐成为新的阻碍因素,而这里面“没有满足企业使用需求AI的vendor或工具”被越来越多企业提及。也因此,我们认为,在企业投资AI趋势不变的情况下,能够帮助企业用好AI的软件会直接受益。沿着这个逻辑,ServiceNow、Palantir、Cloudflare和Elastic有更大机会受益于AI的软件公司。
• ServiceNow(NOW)
我们在《AI是如何重塑软件》中对ServiceNow受益于GenAI的逻辑进行过分析。因为产品布局足够充分、基本覆盖了企业workflow关键环节,所以ServiceNow可以很顺滑地将GenAI和企业具体业务场景结合,“One code、One data model”的技术主张也在数据层面提供了前提。
Now Assist是ServiceNow在2023年底发布的GenAI产品,已经覆盖了ServiceNow的几个主要套件产品,包括ITSM、CSM等。以Now Assist面向IT工作流产品线的功能为例,它首先增强了面向用户的虚拟助理能力,能够提供详细的历史工单摘要,并能够以Q&A的方式提供对支持问题的回答,而不仅仅是搜索结果。并且它还能为完成的支持事件生成最佳实践文档。Now Assist在Now Platform中还能提供自然语言生成代码、工作流和流程Playbook等功能。Now Assist也用于客户工作流和HR服务等套件应用,起到非常类似的作用。
在ServiceNow发布的2024Q2的财报中,公司在Q2的收入达到26.27亿美元,同比增长22%,超出预期2700万美元。Now Assist被认为是ServiceNow历史上增长最快的产品,根据2024Q2财报,NOW Assist的净新年化合同价值(NNACV)在当季度实现了环比翻倍,并获得了11个超过100万美元的订单,其中2个超过500万美元。此外,Now Assist的upselling效应十分明显,虽然它相比上一代平台ServiceNow Pro提价30%,但依然十分受客户欢迎。
• Palantir(PLTR)
Palantir是我们目前看到AI应用场景最独特、且企业端反响很好的公司。PLTR相当重视AI,在最新的业绩会上,PLTR管理层将其AIP平台比喻为“Enterprise AI时代的operating system”,也将主要的增长动力归功于AI。
Palantir的GenAI没有去卷很火热的聊天机器人、企业搜索等赛道,而是基于数据分析帮助企业业务决策,这和Palantir数据平台Palantir Foundry Ontology架构上的壁垒有关。Palantir过去10年中一直在Ontology上持续投入,真正能做到将数据自动转化为业务逻辑,与此同时还能保证数据安全性。
在销售策略上,Palantir采用的是AIP Bootcamp的形式,类似于企业定制咨询结合方案落地,考虑到目前很多企业,尤其是非科技领域的公司对于如何落地AI并没有很清晰的理解和规划,所以能让企业直接看到落地效果的方案也更容易撬动企业的AI预算。CEO也明确表示过,因为Palantir系统背后逻辑很复杂,所以能让客户理解和感受到价值也是一个很重要的工作,在Bootcamp的模式下,CEO认为他们的客户现在比投资者和投资市场更理解他们产品的价值。
根据最新的earnings call中,从Q2开始,公司的AIP平台开始向实际交易转化。Palantir在2024Q2实现了美国地区商业收入同比增长55%,如果排除掉战略合同,则同比增长能达到70%。
• Cloudflare(NET)
Cloudflare的核心业务是提供CDN、网络安全、DDos防御和域名服务,全世界有20%的互联网流量都经过了Cloudflare的网络代理。
在GenAI主题下,Cloudflare也推出了一系列产品,其中最核心的是Workers AI。Workers AI可以让用户将一部分主流开源模型部署在Serverless GPU上面,为客户的AI Chatbot嵌入提供支持。在FY2024 Q2中,Cloudflare官方披露,Workers AI推理请求环比增长700%,平台上的活跃开发者数量增长至超过240万,四个月内增长了20%。随着企业部署AI的渗透率不断提升,Workers AI明显可以受益于这部分需求的增长。
Cloudflare的另一个受益点则来自于Apple Intelligence带来的潜在增量。根据Apple官方信息,Apple Intelligence采用了一个名为PCC(Private Cloud Compute)安全方案,在PCC的设计中,信息传输环节,加密后的AI请求不会直接被传输到计算设备上,先转去一个三方OHTTP,隐藏设备的源IP地址,从而防止攻击者利用IP地址来识别请求或将请求与设备用户联系起来。
Apple官方blog
在此之前Cloudflare已经和Apple在iCloud隐私服务iCloud Private Relay上达成了合作,因此,市场普遍认为,PCC方案中的OHTTP合作方也极大概率是Cloudflare。
随着Apple在今年秋天逐步推出Apple Intelligence,端侧的AI请求都会成为Cloudflare的增量。
• Elastic(ESTC)
Elastic主要为企业提供搜索内置解决方案,围绕搜索,又延展出了可观测性(Observability)和安全(Security)服务。2023年,公司抓住了搜索和GenAI的结合,推出了一系列搜索相关的产品和服务,其中最核心的是Elasticsearch Relevance Engine(ESRE)。
ESRE是去年6月推出的产品,它提供了一个原生的向量数据库,允许客户为基于AI的应用程序创建、存储和搜索向量嵌入,从而提供更相关、精确的搜索结果,为了避免LLM的幻觉、对垂直领域理解不够、个性化限制等缺点,ESRE也采用了RAG结构。
ESRE最大的优势在于易用性,如果企业客户如果已经在使用Elastic的产品,那么配合自身的数据集,就可以更低摩擦地在自己的产品或业务流内来实现LLM驱动的对话式搜索,例如前面提到的DocuSign的案例。
我们观察到,SaaS工具中推出基于Chatbot的Q&A的交互、对话式搜索成为一个普遍趋势,Elastic借助自己搜索场景内的积累和客户资源优势可以很好的抓住行业beta获得增长。
**本文仅作为科普分享及学习资料,不构成任何投资建议或金融产品推荐,并且及不应被视为邀约、招揽、邀请、建议买卖任何投资产品或投资决策之依据,文中所涉及的分析、观点及结论均为作者基于公开信息的研究和主观判断,不代表任何投资机构或金融机构的官方立场,亦不应被诠释为专业意见。投资有风险,入市需谨慎。**