扫码打开虎嗅APP
本文来自微信公众号:游戏人的法律手册,作者:李伯阳(北京市隆安(广州)律师事务所律师、隆安湾区人工智能法律研究中心高级顾问),原文标题:《注意,你的律师可能正在疯狂泄露你的隐私》,题图来自:AI生成
“律师,我想和你咨询一个事。我老公出轨了,还把我们的积蓄都转走了。这是我查到的银行转账记录、购物记录,还有他和那个*子的聊天记录......”
“好的,收到。我先分析一下您的情况,请稍等。”
律师熟练地打开某知名AI平台,将委托人刚刚发来的所有信息一股脑儿复制进对话框,包括银行流水、交易信息、聊天记录,事无巨细,分毫不差。然后他习惯性地按下回车键,拿起茶杯喝了一口,静静等待AI的分析结果。
“AI,真方便啊!”
这一幕,每天正在全国各地的律师事务所上演成千上万次。当事人把最私密的信息交给律师,期待得到专业的法律帮助。然而他们不会想到,自己的隐私正在经历一场前所未有的数字漂流——这些信息被送往某个遥远的服务器,可能被用来训练新的AI模型,可能被第三方访问和使用,甚至可能在未来某一天出现在完全意想不到的地方。
而更令人担忧的是,就连许多律师自己也没有意识到这个问题的严重性。
(本文仅为笔者个人观点,不视为任何法律建议或法律意见)
一、律师们的新宠:AI助手
在这个信息爆炸的时代,法律人也在寻求效率的突破。
自从ChatGPT、Claude、通义千问、文心一言等大语言模型横空出世以来,AI已经成为许多律师案头不可或缺的得力助手。从整理案情要点到撰写法律文书,从进行判例检索到准备辩护策略,AI的能力令人惊叹。越来越多的律师发现,有了AI的帮助,他们可以在更短的时间内处理更多的案件,提供更及时的法律服务。
据《First Global Report on the State of Artificial Intelligence in Legal Practice》截至2024年4月的调研显示,目前已有超过51%的律所(报告主要基于海外200多家全球律所的调查,涉及近10万名法律专业人士)已经在日常工作中使用AI工具,而这个数字仍在快速攀升。年轻律师更是把AI视为职业发展的“必备技能”,有些律所甚至开始将AI使用能力作为招聘新人的考察标准之一。
然而,在这股“AI热”的背后,潜伏着一个重大的隐私安全隐患。当律师们争相拥抱新技术的时候,他们是否想过,自己正在用委托人的隐私为代价,换取工作效率的提升?
二、惊人的真相:你的秘密可能已经不再是秘密
当律师将委托人的信息发送到在线AI平台后,律师们只看到了AI根据资料流畅地吐出大段文本,但这些信息所经历的实际情况,比想象中要复杂得多。
最初,这些信息会被AI服务提供商收集并长期存储在其服务器上。虽然服务商声称此举是为了提升服务质量,但这也意味着委托人的隐私信息可能会长期(永久)留存在服务商的某个数据库中。
然后,这些信息很可能被用作AI模型的训练素材,被服务商塞入GPU服务器中来回训练,用于“改进模型和服务”。委托人的个人隐私、商业秘密等等都可能会转化为AI回答他人问题时的“知识来源”。
更容易被人忽略的一点是,根据大多数AI平台的服务条款来看,这些数据可能会用于和第三方共享。
如果律师选择使用海外的知名AI服务商,那委托人的信息还可能会被传输到其他国家或地区,从而受到完全不同的法律管辖。
这些数据的命运,从此就不再掌握在自己手中。
那用国内AI服务会更安全吗?
三、赤裸裸的用户协议:他们早就说明了一切
事实上,各大AI平台对用户数据的使用权限一直都是“公开透明”的,这些内容都清清楚楚地写在用户协议里,只是很少有人会仔细阅读这些繁复、冗长的法律文本。
大多数用户往往只是输入手机号、填写验证码,随手勾选“同意用户协议”就开始享受AI服务带来的便利。
让我们具体看看几个主流AI平台的用户协议和隐私政策是如何规定用户信息使用的:
通义千问
《通义产品用户协议》和《隐私协议》中明确表示了以下几点:
1. 用户输入的内容(输入、回复、生成的文字、语音、图片、视频等信息内容)会被人工审查,意味着隐私保护基于审查人员的职业道德。
2. 通义(阿里)有永久的数据使用权,不仅是直接使用权(拿来就用),还能随意转让、向第三方分许可、再许可,用途上除了用于优化模型和服务外,还能用于市场营销、推广、学术研究及其他用途。简单来说,就是阿里想怎么用都行。
3. AI对话的全部信息,包括文本、语音、图片、文件、网址等等,都会被收集用于通义产品的改善与优化。
4. 使用过程中所输入的全部信息都会被定义为“必要个人信息”,然后会被进行分析处理。
Kimi
Kimi以超长上下文以及可以接收大量文件进行“阅读”而受到部分律师推崇,但Kimi的《用户协议》与《用户隐私协议》同样也表达出了对数据的“渴望”:
1. 无论是使用智能助手、网页服务还是浏览器助手等等产品,所有与AI沟通的数据都会被收集,并用于提升和迭代产品与服务。
2. 用户提供、发布及在使用 Kimi过程中形成的各类信息,要授予月之暗面永久使用权及可再许可第三方使用的权利。
3. 当然,也可以查阅用户所输入的信息。
文心一言
作为国内模型的先行者,文心一言的《用户协议》和《隐私协议》也是滴水不漏:
1. 同样具备再训练权。
2. 同样具备内容审查权。
3. 同样具备内容使用权。
4. 另外补充一点,文心一言输出的内容,含著作权内的全部权利都归百度所有:
这些平台的《用户协议》和《隐私协议》都明确表示,他们对用户输入的信息拥有广泛且永久的使用权限。当律师们在这些平台输入信息后,平台就可将这些内容用于模型训练、服务优化、商业分析等多个方面,或者拿去分享给第三方使用。
甚至这种授权和使用,基本是不可撤销的。
四、这不仅仅是隐私问题,更是法律风险
在与同行交流时,会发现很多律师往往忽视了使用在线AI时,可能出现的隐私泄露风险。
《律师法》第三十八条明确规定了律师对委托人的个人隐私、商业秘密等都负有严格的保密义务,这不仅是职业道德的基本要求,更是法律的强制性规定。
在公共AI平台随意输入委托人信息、把委托人的资料“存到AI资料库”、把委托人的商业秘密发给AI读取等等的“常见”行为,不仅可能违反律师职业道德准则,还可能构成违约,甚至触犯法律规定。
设身处地想一想,作为一位正在处理离婚诉讼的当事人,你断然不会希望个人家事纠纷的细节被用于AI模型训练,更不会接受这些信息可能被第三方获取。同样,作为一位正在处理商业纠纷的企业经营者,你更不会允许企业的商业机密暴露在第三方甚至可能是竞争对手的面前。
一旦出现信息泄露,后果可能将会是灾难性的:
律师可能面临当事人的投诉与索赔,严重者甚至可能被吊销执业证书乃至承担刑事责任;
而当事人,更可能遭受到无法估量的损失。
五、如何保护你的隐私?
作为委托人,维护自身隐私权益不能仅仅依赖律师的职业操守,但在AI技术越来越普及的环境下,严格要求律师不能使用AI工具可能过于“强人所难”。
因此,在委托律师办理案件时,委托人也可以考虑主动采取以下防范措施:
首先,主动了解律师的AI工具使用情况。委托人需明确询问律师是否会使用AI辅助工具处理案件,如果使用,具体会使用哪些平台,是在线还是本地模型,这些平台的数据是否存储在境内,以及AI工具将在案件处理中发挥什么作用。掌握这些信息不仅有助于评估信息泄露风险,更能为后续的防范措施提供重要依据。
其次,要求律师详细说明其客户信息保护机制。例如要求律师说明,其所在的律师事务所是否已经为其律师在AI合规使用上制定了专门的数据安全保护制度,使用AI的过程中对客户信息的访问权限如何设置,是否采取了防止信息外泄的技术手段,一旦发生信息泄露又将如何应对,这些都是委托人需要了解的重要内容。通过了解这些合规机制,有助于判断律师以及其事务所的信息安全管理水平,同时为双方约定具体保密措施提供参考依据。
此外,在签订委托协议时,务必要求增设信息使用限制条款。这些条款应当明确规定允许使用AI工具的具体场景,要求在使用在线AI工具前必须获得委托人的书面同意。同时,还要约定违反信息使用限制的赔偿责任,设置定期的信息使用情况报告机制。考虑到部分领先的律师事务所已经考虑建立自己的AI数据库甚至训练自己的AI模型,还需要约定案件数据的具体使用权限,是否允许律所内部使用。
最后,在整个案件办理过程中,委托人都要保持高度警觉。一旦发现律师未经授权将信息输入公共AI平台,委托人应当立即采取行动。除了立刻要以书面形式提出明确异议,要求删除相关内容并提供删除证明外,还应要求对方对可能造成的风险进行评估。必要时,委托人还可以寻求当地律协、司法局等监管机构的帮助。
六、给律师的建议
身处数字化转型的浪潮之中,尤其已经享受过AI带来的便利后,要求律师们完全摒弃使用AI工具显然不切实际,但这并不意味着我们作为律师,就可以放弃对委托人隐私的捍卫,就可以“用隐私换便利”。
对律师而言,当务之急是在提升效率与保护隐私之间找到恰当的平衡点。而最首要的一点,是建立起对AI工具使用的清晰认知:在线AI可能存在数据风险。
在决定使用AI工具之前,律师们应当审慎评估实际需求,深入思考是否存在更为安全的替代方案。当确实需要借助AI工具时,应当优先考虑可本地部署的解决方案;若不得不使用在线AI工具,则要养成妥善处理数据的良好习惯。
例如,在把资料、文本、语言等数据输入到AI前,就将原始数据中可能涉及个人身份的信息,如姓名、地址、身份证号等,以及各类隐私信息、商业秘密内容悉数去除,对数据进行脱敏处理;或仅就基本的法律问题、文本润色等等与委托人信息无关的内容使用AI进行处理。
当然最重要的一点是,这一切都必须建立在获得委托人知情同意的基础之上。律师可以在委托协议中增设专门条款,详细说明可能使用的AI工具类型、具体使用目的和范围,以及相应的保密措施。
与此同时,律师还需要密切关注所使用AI工具的隐私政策动态。众所周知,各大平台往往会不定期更新其用户协议和隐私政策,看似细微的政策调整可能暗藏重大隐私风险。因此,律师有必要建立起系统的定期审查机制,确保所使用的AI工具始终符合职业道德标准和法律规范的要求。
唯有如此,律师们才能在享受科技进步带来便利的同时,切实遵守职业道德,履行好保密义务。
七、本地部署:更安全的选择
当然,比起使用各类在线AI服务,本地部署AI模型和AI服务不失为一个切实可行的选择。
尽管本地模型在性能上或许还无法完全比肩在线大模型(除了语音转文本模型,通义在线和本地开源的模型基本为同一个),甚至还需要考虑硬件设备的问题,但其在隐私保护方面的优势却是无可争议的。
本地部署意味着所有数据都在律师自有电脑或服务器上进行处理和存储,从根本上规避了信息外泄的风险。更重要的是,本地部署的模型可以根据具体需求进行定制化的安全配置和性能优化,更易满足各类合规要求。
笔者一直致力于制作、搭建各类本地AI服务和办公插件,并乐于免费分享给同行使用,目的就是致力推动法律行业的AI使用合规化,让更多的同行,以及部分基于岗位考虑无法使用在线AI服务的人员,也能在合规的框架下,一起享受到AI发展带来的便利。
当然,本地部署模型比起“开网页即用”的在线AI服务,会有更多的难点。除了需要具备一定的技术知识,以便能够正确配置和管理本地模型和插件外,硬件设备的投入(例如高性能的CPU或显卡)也是一个需要考虑的因素。
不过随着技术的进步、各类制作者不断推出易用的软件以及硬件设备成本的降低,这些问题将会逐渐得到解决。
八、结语
随着人们对AI隐私问题认识的深入,各国都在探索AI发展与合规之间的平衡点。
国内近期在不断完善各类AI相关的法律法规,甚至各地都在加紧推出各种“第一案”,虽然案件和判决在了解AI核心原理的人看来有点争议,但依然可见国内在AI合规上的努力。而在海外,欧盟的《人工智能法案》已经正式生效,《通用人工智能业务守则》等等新规也已在路上。这些法律法规的出台和完善,都为AI工具的规范使用提供更清晰的指引。
技术发展从来都是一把双刃剑,AI为法律行业带来的便利显而易见,但隐私泄露的风险同样不容忽视。无论是律师还是委托人,都需要对此保持清醒认识。对律师而言,这不仅关乎技术使用,更是职业操守的直接体现;对委托人来说,这更是直接关系到其切身权益。当委托人推开律师事务所的大门时,期待的是专业的法律服务,而非将自己的秘密暴露于未知的风险之中。
在这个AI快速迭代的时代,安全意识必须与技术发展同步。当律师说出“让我用AI看看”的时候,委托人也许应该多问一句:“我的信息将去往何方?”
任何人的隐私,都值得更好的保护。
相关资料:
《First Global Report on the State of Artificial Intelligence in Legal Practice by Michał Jackowski and Michał Araszkiewicz》
https://liquid-legal-institute.com/wp-content/uploads/2024/03/E-Book-First-Global-Report-on-AI-in-Legal-Practice.pdf
本文来自微信公众号:游戏人的法律手册,作者:李伯阳(北京市隆安(广州)律师事务所律师、隆安湾区人工智能法律研究中心高级顾问,《法律人ChatGPT应用指南》作者)