扫码打开虎嗅APP
本文来自微信公众号:AI合规圈(ID:gh_344b08562741),作者:陈焕(北京市隆安(广州)律师事务所律师、隆安湾区人工智能法律研究中心主任)、李琪瑶(北京市隆安(广州)律师事务所律师,隆安湾区人工智能法律研究中心研究员),题图来自:视觉中国
一、你能接受数字永生吗?
清明将至,又到了一年祭祀先人、寄托哀思的时节。《流浪地球2》电影里,刘德华饰演的图恒宇在女儿车祸去世后,通过技术“复活”了自己的女儿图丫丫。谁也没想到,这些电影情节以如此之快的速度走进了现实。
在今年2月,台湾音乐人包小柏因思念女儿,自学AI技术“复活”了自己的女儿Feli,女儿在数字世界里为母亲献上了生日歌。
AI“复活”乔任梁、李玟、高以翔等明星的视频也在网络热传。乔任梁的父亲回应称“看到这些视频的时候感觉到不适,这是在揭伤疤,希望对方尽快下架”。
江歌的母亲在“你接受AI复活亲人吗”的微博话题下,直接称“不能接受复活,如果能复活,也仅限于我亲自来做这件事”。
而在清明前夕,不少商家也嗅到了AI“复活”亲人的商机。打开电商APP,搜索“AI复活”,就能看到不少AI“复活”亲人的商品链接。
当我以为这是一种“割韭菜”的行为时,却意外地在评论区中发现了不少这样的评论:
如果这些评论都是真实的,也许这项技术是真的让他们的心灵得到了某种慰藉。
AI“复活”:数字人行业下的细分赛道
当前的AI“复活”亲人技术,主要是基于用户提供的逝者的音频、照片、视频、个人性格、语言风格等资料来训练模型,以生成与逝者近似的形象。随着技术的迭代,制作数字人的时间和资金成本也在不断下降,生成的数字人也越来越逼真。
在电商平台提供AI“复活”服务的商家,往往只要求用户提供数张逝者的生前照片和生前的视频,有些甚至只需要提供一张图像及一段一分钟的视频,就可以生成一段“复活”视频。当然,用户提供的照片及视频的质量越高、数量越多,生成的数字人就越像,所需的服务费可能也更高。
目前在虚拟数字人版块发展迅猛的企业不少,如天地在线、天娱数科、佳创视讯等。而AI“复活”作为数字人具体应用场景的细分赛道,除了在各大电商平台提供服务的小型团队,也有其他规模较大的企业也盯上了这块“蛋糕”,这其中既有在丧葬服务中实现“AI+殡葬”转型的传统丧葬服务企业,也有在数字人赛道主攻AI“复活”业务的技术型企业。
福寿园作为一家上市殡葬集团,早在前两年就提出“AI+殡葬”的概念,并曾经在一次活动上“复活”了知名的媒体人曹景行先生。福寿园也在去年征集数字生命体验者,推出数字礼祭服务。
成立于2017年的硅基智能,成功自研“炎帝大模型”,并在数字永生领域形成了标准化的产品——DUIX。用户能够在DUIX APP定制专属的数字生命,与数字人实现实时交互。
二、AI“复活”,风险几何?
笔者在浏览各大电商平台的AI“复活”商品时,发现不少商家已经有一定的风险意识,例如在商品详情页作出“不做人脸识别”“只做老人”“只做逝去的人怀念”等声明,但仅有这些声明,显然不足以规避“AI复活”产业潜在的法律风险。
那么,AI“复活”亲人这门AI浪潮之下的新行当,有哪些风险和合规的问题呢?
人格权侵权问题
《民法典》第九百九十四条规定,死者的姓名、肖像、名誉、荣誉、隐私、遗体等受到侵害的,其配偶、子女、父母有权依法请求行为人承担民事责任;死者没有配偶、子女且父母已经死亡的,其他近亲属有权依法请求行为人承担民事责任。同时,根据《最高人民法院关于确定民事侵权精神损害赔偿责任若干问题的解释(2020修正)》第三条的规定,依法应当对死者的近亲属进行精神损害赔偿。
无论是乔任梁、李玟这些逝世的公众人物,还是你我身边的芸芸众生,只要在未经其配偶、子女、父母或者近亲属同意的情况下,擅自利用其肖像、声音、个人隐私进行AI“复活”的,均构成对其合法权益的侵犯,依法应当停止侵权、赔礼道歉,并承担损害赔偿责任。
除了用民法典来规制近亲属以外的人的侵权行为,要想实现对逝者权益的真正保护,还应当尊重逝者的遗愿,如果逝者本人在去世之前,拒绝被人工智能技术反复强迫“开口”和“表演”,那么应当尊重逝者的权利,即便是近亲属,也不宜在逝者离世后通过AI将其“复活”。
而对于从事AI“复活”业务的团队来说,确保在提供服务之前让客户提供配偶、父母、子女或近亲属的授权书及配套证明,签订相关的协议,并做到依法处理用户提供的数据,可以在一定程度上规避自己的侵权风险。
科技伦理审查问题
为了“再见一面”使用AI技术“复活”亲人,AI技术准备好了,但人类社会的伦理可能还没准备好。
ChatGPT掀起AI浪潮的一年后,《科技伦理审查办法(试行)》于2023年12月1日正式施行。根据该办法第二条的规定,涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动,需要进行科技伦理审查。
在AI“复活”亲人的场景之下,特别是基于大量人脸敏感信息进行大模型的开发与训练,属于涉及利用个人信息数据的科技活动,理论上需要进行科技伦理审查。
不过现实情况是:在使用AI技术成本极为低廉、技术难度非常低、而生成效果却远超以往的当下,有多少从事AI“复活”、“数字永生”项目的从业者,会煞有介事地开展科技伦理审查?
虽然目前该领域的适用问题上存在诸多问题,但从谨慎经营、降低违规风险、负责任地使用人工智能技术的角度上看,我们仍然建议企业在合理的成本控制下,对AI“复活”亲人项目进行科技伦理审查。具体的做法包括但不限于:
1. 合理组合内外部专家,组建科技伦理审查委员会;
2. 开展科技伦理风险评估,提供包括知情同意书、遵守科技伦理和科研诚信等要求的承诺书等申请材料;
3. 完善数据、数据安全的有关制度和流程,个人隐私数据、生物特征信息等信息处理符合个人信息保护的有关规定;
4. 对数字人使用情况是否符合家属意愿进行必要审查,由家属决定数字人的使用范围;
5. 主动对家属心理产生的影响进行综合评估等等。
算法备案问题
根据《生成式人工智能服务管理暂行办法》第十七条的规定,AI“复活”亲人项目应当进行算法备案,否则可能面临《互联网信息服务算法推荐管理规定》第三十一条规定的行政处罚、1万~10万元罚款、刑事犯罪等法律风险。
算法备案主要分为两大步骤:
第一步是“主体备案”。主体区分为提供基础模型的技术支持方“服务技术支持者”和提供AIGC产品服务的“服务提供者”,主体信息填报审核通过后方可进入第二步;
第二步是“算法备案”。算法备案具体包括算法基础属性填报、算法详细属性填报、产品及功能信息填报。根据《互联网信息服务算法推荐管理规定》,材料齐全的,网信部门应在30个工作日内予以备案,但实践中算法备案时长通常为3~6个月。
算法备案是AI“复活”亲人等项目落地的必要条件,如果没有做好备案,很可能会被监管部门约谈下架。
AI生成内容标识问题
根据《生成式人工智能服务管理暂行办法》第十二条的规定,提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。深度合成规定将进行“显著标识”的义务划分给服务提供者,并且要求“任何组织和个人不得采用技术手段删除、篡改、隐匿”这些标识。
尽管《TC260-PG-20233A网络安全标准实践指南——生成式人工智能服务内容标识方法》比较详细地规定了对AI生成内容标识的方法和标准,但作为一个“指南”性质的文件,其规制作用有限。
尤其是现在AI行业处于早期野蛮而蓬勃发展的阶段,实务中对生成物内容进行标识的问题,仍缺乏足够的标准或共识——有的扭扭捏捏似是而非地称“部分内容采用AI技术”、有的只以非常不显著的位置标识了“AI生成”的字样、有的视频更是根本就没有任何与AI有关的标识。
这些关于标识的共识和监管,还需要等待理论和应用的进一步发展。在当前,无论是从社会责任的角度,还是应对可能存在监管的角度,我们都建议参照前述标准,对AI生成物进行充分、显著地标注。
前几天抖音发布的《关于不当利用AI生成虚拟任务的治理公告》中就提到发布者应对人工智能生成内容进行显著标识。
其实真正让人觉得麻烦的是,即便做了科技伦理审查、算法备案和规范的生成物标识,对于认知水平相对有限的中老年人而言,这些举措并不足以让他们意识到——在眼前蹦蹦跳跳的俊男靓女,其实只是冰冷算法的产物。
在许多短视频平台的数字人平台之下,依旧有不少中老年用户无法辨别出AI与真人。
在现实与虚幻的边界越来越模糊的AI时代,人类的生存和死亡正在被数字世界解构。潘多拉的魔盒已经打开,我们希望能够在一个AI强大而安全的未来生存。
本文来自微信公众号:AI合规圈(ID:gh_344b08562741),作者:陈焕(北京市隆安(广州)律师事务所律师、隆安湾区人工智能法律研究中心主任)、李琪瑶(北京市隆安(广州)律师事务所律师,隆安湾区人工智能法律研究中心研究员)