正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-07-01 08:53

为避免员工“Manner化”,他们这样用AI

本文来自微信公众号:爱范儿(ID:ifanr),作者:关注AI应用的爱范儿,题图来自:视觉中国

文章摘要
文章讨论了如何利用AI技术来缓解客服工作人员所承受的情绪压力,以及不同公司采取的方法。

• 💡 AI技术帮助客服人员应对顾客情绪,如软银的“礼貌滤镜”和First Horizon的“情绪识别”程序

• 🌟 公司如AT&T和微软利用AI工具化减轻客服人员工作量

• 🚀 AI在客服自动化市场发展迅速,但也面临着替代人类工作人员的问题

最近,Manner 咖啡一天两起冲突事件引来大量讨论和关注。


众多报道帮助我们看到了“失控”咖啡师背后过载的工作量和精神压力。


除了咖啡师这类相对新兴职业,电话客服也是具有代表性的承受了较多精神和情绪压力的职业。


而为了避免客服工作人员走向崩溃,现在有好些大公司都在尝试用 AI 来“缓冲”工作所带来的情绪冲击。


从情绪缓冲到工作助手,AI 都能做什么?


“顾客就是上帝”这句“金句”,让众多服务业从业人士痛苦不已。而在向来重视“礼节”文化的日本,这句话就变得更沉重。


据日本劳工组织 UA Zensen 一份调查指出,在 3.3 万名接受调查的服务或零售业从业者中,将近一半人在过去两年里都曾经历过顾客骚扰,其中包括语言骚扰、威胁甚至出现要求员工下跪鞠躬道歉的情况。


作为应对,日本第三大电信运营商软银正在为客服人员研发一项技术,类似一个“礼貌滤镜” —— 将暴躁的客人话语改成平缓语气,然后再传达给客服,减少客服接受情绪冲击的压力。


研发这项技术的 Toshiyuki Nakatani 表示,他从电视节目得知客服人员经常要受到顾客骚扰,心想,如果那些愤怒的客户的声音听起来像日本动漫《鬼太郎》里的“眼珠老爹”,是不是就没那么糟糕了?


概念简单,但做起来还是得从几个方面入手:


首先,要教 AI 识别话语中的情绪。


为此,软银聘请了 10 位专业演员,他们会对超过 100 句话语进行多种情绪版本的演绎 —— 话语不变,换着声调和语气来演说,制造一批超过上万条的语音训练素材。


当 AI 侦查到顾客有强烈的情绪,AI 就会把这些话语的语气“平缓化”。譬如,女性的高音调会被降低音调,而男性的低音,则会被调得更高,就是让一切变得柔和一些。


不过,如果将语音完全“去愤怒化”,软银又担心客服人员不知道顾客在生气,进而变得越来越生气,所以 AI 还是会留下一点可辨识的生气语调。


除了调整语气之外,这个系统还有另一重要功能在于决定何时中断对话。


软银说,不少客服人员在听骚扰语言的同时,更崩溃的还是遇上不肯挂电话的客户,譬如坚持要求道歉的。


在研发中的 AI 工具也会判断对话是否太长或者语言是否太过分,如果是的话,AI 会向客户发出一个信息,像是:“我们很遗憾地告诉你,我们将结束这次服务。”


软银表示,这项功能预计将于 2025 财年正式推出。


美国银行 First Horizon 则将“情绪识别”指向了客服人员本身。


一个名为 Thrive Resets 的程序,可以通过客服人员的言语,来判断他们的情绪不适感是否已经达到一个特定程度。


如果是的话,系统会自动将当前的对话转接给另一位接线员,并开始为前一位客服人员播放一支伴随着音乐的家庭或假期照片剪辑而成的“放松视频”,上面还得配上“励志语录”,并指引员工深呼吸来调整情绪。


员工可以自己定制播放的音乐和照片内容。


First Horizon 表示,他们做过了两次测试:


第一次邀请了 28 位客服人员和 2 位监督人员,结果显示员工的过劳程度降低了 13%,客户满意度也提升了 2%。


第二次测试囊括了 160 名客服和 14 位监督人员,员工过劳程度降低了 20%。


对比上面两个“直面情绪”的功能,微软和美国电信公司 AT&T 的 AI 创新更偏“工具化”。


微软打造了一款将于 7 月 1 日推出的软件 Dynamics 365 Customer Service,用 AI 协助客服人员快速检索合适的解决方案,主要用来替代缓慢庞大的传统客服系统。微软的 Jeff Comstock 说道:


不幸的是,服务业充斥着苦差事。他们有一大堆工具,想要解决最基本的问题都要走非常繁复的流程,体验非常糟糕。


而在 AT&T,从去年开始,AI 就承担了原本由客服人员做的“笔记”工作 —— 在客服人员和顾客对话过程中,AI 就会自动将两人对话转录为文本。


转录的同时,AI 也会就两人的对话内容提供一定的建议。


总的来说,微软和 AT&T 主要还是通过减轻客服人员工作量来降低过劳几率。


技术发展路上,承受压力的大多还是人类


将人和情绪分离的最终状态,是《人生切割术》中的模样吗?


有评论指出,这些工具现在虽只是为了减轻客服人员的工作压力,但这些“辅助”也在变相训练 AI 来替代人类工作人员。


这不无道理,甚至已经是一条相对拥挤的赛道,市场价值高达 28 亿美元。


无论是 Google、亚马逊这类大公司,还是像 Parloa、Retell AI、Cognigy、Decagon 这类名字相对陌生的创业公司,都在盯着客服中心的自动化市场。


和传统的聊天机器人相比,基于生成式 AI 技术的聊天机器人在处理工作上也许能更灵活,但在机器无法完成的部分,兜底的很有可能只能是人类。


前段时间,First Horizon 的 AI 系统公布时,就引来了大量批评——“简直就是反乌托邦的噩梦”。


这也可能是让 First Horizon 最终决定不会采用这个系统的原因之一,毕竟当初官方新闻稿里都在宣传这个系统的有效性。


在众多讨论中,资深科技作者 Brian Merchant 指出了一个重要的问题:


为什么客服人员在接到顾客的电话时,大多时候都要面对巨大的心理压力和承受对方的愤怒?因为这些顾客在最终和一个人类对话之前,已经经历了漫长的“自助选择”,也就是已经被上一代的客服自动化产物惹怒了。


First Horizon 在当初的新闻稿中指出,其客服服务中,已经有 85%-95% 的顾客电话都是在“自助服务”里面完成了服务。


换言之,剩下那 15%-5% 最终还是走到人工服务的顾客,也已经和自动回复折腾了好长一段时间了。


只要一接通,人工客服人员就要马上接住被机器和系统惹怒的顾客。


软银打造的“情绪屏障”,也许有机会让本来要“崩溃”的客服工作人员停留在“有压力”阶段,但大家都知道顾客的愤怒并不完全只是顾客自身的问题。


正如在“Manner 事件”中,最终触发店员崩溃的冲突,从来不只是那个当下的问题,而是隐藏在一环接一环的“降本增效”中。


本文来自微信公众号:爱范儿(ID:ifanr),作者:关注AI应用的爱范儿

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: