正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-08-25 12:05

当AI走下神坛,产品的变革才刚刚开始

本文来自微信公众号:曼谈AI (ID:gh_8a4d80b68aba),作者:曼谈AI,头图来自:视觉中国

文章摘要
生成式AI需克服成本、可靠性、隐私等五大挑战,产品变革仍在初期。

• 💸 成本问题阻碍了生成式AI的广泛应用。

• 🔒 隐私和安全性成为AI助手普及的主要障碍。

• 📈 企业需在AI商业化过程中重视用户需求。

高盛在6月发布的一份研究报告(Goldman Sachs Research Newsletter)中指出,科技巨头和人工智能企业预计会投入数万亿美元用于采购GPU和建设新的数据中心。然而,迄今为止,这些巨额投资似乎除了在报告中显示的开发者效率有所提升外,并未带来其他显著成果。这引发了人们对生成式人工智能是否仅仅是一场泡沫的担忧。


在Gartner最近发布的2024技术成熟度曲线中,生成式AI技术即将进入“幻灭低谷期”。



在此,我不打算对未来发展做出任何预测,但希望就事情如何发展到当前阶段有着切实的理解。


本文试图去探讨人工智能公司在发展过程中所走的弯路,以及他们正在采取哪些措施来纠正这些错误。随后,我们将探讨为了确保生成式AI在商业上的成功,需要克服的五大挑战。


产品市场契合度(PMF)的重要性


ChatGPT一经推出,开发者的热情就被点燃了,因为我们发现它可以用于无数创新场景。但这种热潮也可能导致对市场的误解,以及低估了从初步概念验证(POC)到开发出成熟产品之间的巨大鸿沟。


商业化策略的两种类型:


  • 新兴的大模型公司(如OpenAI和Anthropic),它们主要集中于模型的开发,而在产品开发上投入较少。


  • 传统科技巨头(如谷歌和微软),它们在一种近乎恐慌的心态下,急切地将AI技术嵌入到各种产品中,而没有深思熟虑地考虑哪些产品真正能够从AI中获益,以及如何有效整合。


这两类公司似乎都忽视了“创造用户所需”的核心原则。大语言模型的多功能性让开发者误以为他们可以跳过寻找产品市场契合度的必要步骤,仿佛简单地提示模型执行任务就能取代精心设计的产品或功能。


策略导致的问题包括:


  • OpenAI和Anthropic:它们的自助式方法吸引了那些寻求将新技术用于自己目的的早期用户,但这些用户往往并不代表大多数普通用户,后者需要的是易于使用的产品。这影响了技术在公众中的形象,并导致了信任度的下降。


  • 谷歌和微软:它们直接应用的方法虽然偶尔能提供有用的功能,但更多时候却显得累赘,并且由于测试不足导致了问题,比如微软的Sydney聊天机器人和谷歌的Gemini图像生成服务,引起了公众的反感。


公司策略的调整:


  • OpenAI:正逐渐从专注于前沿研究的实验室转变为更接近传统产品公司的组织。


  • Anthropic:吸引了许多在OpenAI感到不适应的研究人员和开发者,他们更关注通用人工智能,并且在产品开发上也做了很多对用户友好的交互功能。


  • 谷歌和微软:虽然学习过程缓慢,但预计苹果的稳健策略将迫使他们改变。谷歌在即将推出的Pixel手机和Android系统中更多地考虑了AI的整合。


通过这种重新组织,我们更清晰地看到了AI商业化过程中的问题,同时也凸显了产品市场契合度的重要性。


2C产品开发者面临的五大挑战


成本


在许多应用场景中,阻碍我们的是成本而非技术能力。比如,在简单的聊天应用中,成本问题决定了机器人能够跟踪多少对话历史——随着对话的延长,处理整个对话历史来生成每个回复的成本很快就会变得过高。


过去18个月里,成本问题有了飞速的进展,同等性能的推理成本降低了超过100倍。因此,一些公司声称,LLM已经或者很快将变得“便宜到不用计量”。但只有当他们将API免费提供时,我们才会相信这一点。


严格地说,成本始终是一个问题,因为在许多应用中,成本的降低可以直接转化为准确性的提升,因为多次重试任务可以提高成功的机会,尤其是在LLM的随机性下。所以模型越便宜,我们就能在给定预算下进行更多的重试。


可靠性


能力和可靠性是不太相关的。如果一个AI系统90%的时间正确执行任务,我们可以认为它有能力执行任务,但无法可靠地执行。让我们达到90%的技术不太可能让我们达到100%。


基于统计学习系统很难实现完全准确。机器学习的成功案例,如广告定位、欺诈检测或最近的天气预报,100%的准确性并不是目标——只要系统比现有技术更好,它就是有用的。即使在医疗诊断和其他医疗应用中,我们也容忍很多错误。


但当我们将AI放入消费产品时,人们期望它更有确定性。如果你的AI旅行代理只有90%的时间能正确预订目的地,那它就不会成功。


隐私


机器学习的应用常常依赖于敏感数据源,例如用于广告定位的浏览历史或用于健康科技的医疗记录。从这个意义上说,LLM有点不一样,因为它们主要在公共来源上进行训练,如网页和书籍。


但随着AI助手的出现,隐私问题再次凸显。为了构建有用的助手,公司必须基于用户互动数据训练系统。例如,为了擅长撰写电子邮件,如果模型在用户的电子邮件数据上受过训练,将会非常有帮助。目前,这方面的隐私政策还含糊不清,而且,电子邮件、文档、屏幕截图等可能比聊天互动敏感得多。


安全性


当涉及到安全性时,有一系列相关的问题:比如Gemini图像生成中的偏见,比如声音克隆或深度伪造等AI的滥用,还有提示注入等黑客攻击,这些攻击可能会泄露用户数据或以其他方式伤害用户。


意外的失败是可以修复的,至于大多数类型的滥用,是没有办法从模型层面解决的,我们创建不出一个不能被滥用的模型,因此防御措施只能放在下游。当然,并非每个人都认同这一点,所以公司将继续因为不可避免的滥用而获得负面新闻,但他们似乎已经将这作为做生意的成本吸收了。


用户交互在许多应用中,LLM的不可靠性意味着,如果机器人偏离轨道,用户需要有办法进行干预。在聊天机器人中,这可以像重新生成答案或显示多个版本并让用户选择一样简单。但在错误代价高昂的应用中,如航班预订,很难确保充分的监督,因为系统必须避免过多地烦扰用户。


结语


人工智能的倡导者们经常强调,鉴于人工智能技术正以迅猛的速度进步,预计很快就能感受到其对社会和经济产生的深远影响。然而,我对此持保留态度。即便人工智能技术的确在迅速发展,开发者们仍需面对并解决前文提及的诸多挑战。这些挑战不仅仅是技术层面的,还涉及社会,伦理科学,解决这些问题的过程将是逐步且复杂的。


即便这些挑战最终得以克服,企业和组织仍需在现有产品和工作流程中有效地融合人工智能技术,并需要对人员进行培训,教会他们如何高效地利用人工智能,同时规避其潜在的风险。因此,这将是一个长期的发展过程,绝不是在一两年内就能看到显著成效的,对此,我们应该更有耐心才是。


参考资料:Goldman Sachs Research Newsletter

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: