正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-01-09 19:54

OpenAI反驳《纽约时报》起诉的声明,站得住脚吗?

本文作者:游云庭(上海大邦律师事务所高级合伙人、知识产权律师),头图来自:视觉中国

文章摘要
本文为游云庭律师对OpenAI在反驳《纽约时报》起诉中的声明进行分析。OpenAI在声明中表示支持新闻业并与新闻机构合作,认为《纽约时报》的诉讼毫无根据。文章对OpenAI声明中的四个立场进行了解读,并对其中的争议点进行了评注。

• 💡 OpenAI与新闻机构合作,创造新的机会,但《纽约时报》起诉中提到OpenAI在训练数据集中删除了版权管理信息。

• 💡 OpenAI认为训练模型属于合理使用,并提供屏蔽爬虫的功能,但著作权法对人工智能使用他人版权作品较为模糊。

• 💡 OpenAI称其模型不存储训练数据副本,但《纽约时报》证明其模型可以回答其原始新闻,存在信息复制的可能。

2023年底,《纽约时报》起诉ChatGPT的开发者OpenAI和其伙伴微软公司的案件引发了全球关注,近日OpenAI基金会在公司网站发布博客《OpenAI与新闻业》[i],称:我们支持新闻业,与新闻机构合作,并认为《纽约时报》的诉讼毫无根据。


今天就结合该博客的内容,跟大家分享一下笔者的看法。

 

OpenAI称,我们的目标是开发人工智能工具,让人们有能力解决那些遥不可及的问题。世界各地的人已经在使用我们的技术来改善他们的日常生活。如今,数百万开发人员和超过92%的财富500强企业都在使用我们的产品。虽然我们不同意《纽约时报》诉讼中的说法,但我们认为这是一个澄清我们的业务、意图以及我们如何构建技术的机会。


OpenAI的立场可以概括为以下四点:

 

一、我们与新闻机构合作,创造新的机会


我们在技术设计过程中努力为新闻机构提供支持。我们已经与数十家新闻机构以及新闻/媒体联盟等领先的行业组织会面,探讨机会,讨论他们的担忧,并提供解决方案。我们的目标是学习、教育、听取反馈并进行调整。

 

我们的目标是支持健康的新闻生态系统,成为良好的合作伙伴,创造互惠互利的机会。有鉴于此,我们寻求与新闻机构建立合作伙伴关系,以实现这些目标:

 

部署我们的产品,通过协助分析大量公共记录和翻译报道等耗时的任务,为记者和编辑提供帮助和支持。通过对更多历史、非公开内容的训练,让我们的人工智能模型了解世界。在ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式。我们与美联社、阿克塞尔-施普林格(Axel Springer)、美国新闻项目(American Journalism Project)和纽约大学(NYU)的早期合作让我们了解了我们的方法。

 

笔者的评注:这部分内容说的是OpenAI人工智能服务的正向价值。但“在 ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式”只是他们的想法,现实的情况恰恰相反,《纽约时报》起诉OpenAI的诉状第184段也提到:根据原告获得的信息和观点,被告在建立包含数百万份《纽约时报》的训练数据集中删除了《纽约时报》的版权管理信息(“CMI”Copyright Management Information),包括《纽约时报》作品以及从第三方数据集中复制的《纽约时报》作品。

 

笔者在介绍开源软件开发人员起诉OpenAI的文章《用GitHub上的开源代码训练人工智能违法吗?[ii]一文中提到过“原告认为,当他们的代码被用作训练数据时,代码附带的开源许可证的版权管理信息被(OpenAI)删除了。

 

二、训练是合理使用,但我们提供了退出选项,因为这样做是正确的


利用公开的互联网资料训练人工智能模型,属于合理使用,这一点得到了长期广泛接受的先例支持。我们认为这一原则对创造者是公平的,对创新者是必要的,对美国的竞争力也是至关重要的。

 

最近向美国版权局提交意见的众多学者、图书馆协会、民间社会团体、初创企业、美国领先公司、创作者、作者等都支持允许将训练人工智能模型作为合理使用的原则。其他地区和国家,包括欧盟、日本、新加坡和以色列,也有允许在受版权保护的内容上训练模型的法律--这是人工智能创新、进步和投资的优势。

 

尽管如此,对我们来说,法律权利并不重要,重要的是做一个好公民。我们在人工智能行业中处于领先地位,为出版商提供了一个简单的退出程序(《纽约时报》于 2023 年8月采用了这一程序),以防止我们的工具访问他们的网站。

 

笔者的评注:著作权法上的合理使用是要有法律明确规定的,比如OpenAI举例中的日本《著作权法》就确实有这个规定,我国《著作权法》第24条也规定了合理使用,比如为个人学习研究欣赏使用、为介绍评论作品或说明问题适当引用,媒体不可避免再现或引用作品、教学科研使用,但不得出版发行等13种情况。

 

但就人工智能使用他人版权作品,笔者个人认为较难归入上述合理使用法定情形。当然,就像前不久北京互联网法院为了保护新兴产业,认定产生人工智能图画的提示词受版权保护一样,不排除此类案件法院审理中认为人工智能作为新生事物需要保护,也将其归入某一种合理使用的可能性。

 

关于“为出版商提供了一个简单的退出程序”,其实是一个爬虫屏蔽功能[iii],只要在网站的Robots.txt文件中加入屏蔽OpenAI爬虫的描述,OpenAI就不会抓取网站的内容进行训练。这个功能的使用方法和网站屏蔽搜索引擎爬虫的功能基本一样。

 

但《纽约时报》起诉OpenAI可不是屏蔽爬虫那么简单的事情。首先,谷歌百度这样的搜索引擎,其爬取网站的内容后会给网站引流,引导用户访问被爬取内容的网站,用户或者点击网站的广告,或者支付费用访问付费墙后的新闻,达到搜索引擎和网站双赢的生态效果。而OpenAI的做法并非如此,笔者在《〈纽约时报〉起诉了OpenAI和微软哪些侵权行为?[iv]一文中有描述:

 

不同于传统搜索引擎只显示网页摘要,(由OpenAI支持的)必应搜索引擎页面上的“合成”搜索结果可以直接回答用户查询,并且可能将《纽约时报》报道中广泛的内容进行释义和直接引用。对于《纽约时报》而言,这种方式实际意味着替代,用户无需访问其网站就可以使用他们的内容,这将导致商业利益受损。

 

三、“反流”是一个罕见的错误,我们正在努力将其消灭为零


我们设计和训练模型的目的是学习概念,以便将其应用于新问题。死记硬背是学习过程中的一种罕见故障,我们正在不断加以解决,但当特定内容在训练数据中出现不止一次时,这种故障就比较常见了。例如,如果这些内容的片段出现在许多不同的公共网站上。


因此,我们采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容。我们也希望我们的用户能够负责任地行事;故意操纵我们的模型进行反流(反流,英文为Regurgitation,医学名词,也称“反刍”,指经过咀嚼的食物从胃返回到嘴里,笔者注)不是对我们技术的适当使用,也违反了我们的使用条款。

 

正如人类接受广泛的教育以学习如何解决新问题一样,我们也希望我们的人工智能模型能观察到世界上的各种信息,包括来自各种语言、文化和行业的信息。由于模型是从人类知识的巨大集合中学习的,因此任何一个领域--包括新闻--都只是整个训练数据的一小部分,任何一个数据源——包括《纽约时报》——对模型的专门学习都没有意义。

 

笔者的评注:包括OpenAI[v]、 Meta在内的大语言模型公司都认为,人工智能接受数据的训练方式不同于计算机的简单复制,而是通过大量数据的训练,了解每个词在不同环境下的各种含义,因此其并不包含或者存储训练的数据副本。所以训练数据对模型的意义主要在于,帮助模型更好地理解单词的意义,这也是OpenAI断言新闻数据和《纽约时报》数据源对于模型的专门学习都没有意义的原因。

 

OpenAI认为,其已经采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容,其社交媒体上确实也有这个记录[vi]。但《纽约时报》证明,输入提示词,ChatGPT就可以把其原始新闻反馈给用户。前一部分中,OpenAI说《纽约时报》已经于2023年8月屏蔽了其爬虫,但《纽约时报》诉状中列举的巴以冲突的新闻证据是10月份的,所以OpenAI在博客中说,这些内容不仅出现在《纽约时报》网站,也出现在许多不同的公共网站上。

 

同时,OpenAI还认为,《纽约时报》取证时故意操纵ChatGPT进行反流,违反了其用户条款。故意操纵应该指《纽约时报》取证时的提示词是特殊的,比如新闻的第一句话,而非用户常用的“提供加沙战争新闻”及类似方式。这里的用户条款应该指的是其用户协议中的规定[vii]不得将OpenAI的服务用于任何非法、有害或滥用行为。例如,以侵犯、盗用或违反他人权利的方式使用我们的服务。可能OpenAI认为用户利用其技术漏洞输入提示词得到侵犯版权的训练材料信息,也属于以侵权方式使用其服务。

 

四、《纽约时报》没有讲述全部故事


在12月19日的最后一次沟通中,我们与《纽约时报》的讨论似乎取得了建设性进展。谈判的重点是围绕 ChatGPT中的实时显示和归因建立高价值的合作伙伴关系,《纽约时报》将通过这种新方式与他们的现有读者和新读者建立联系,而我们的用户则可以访问他们的报道。


我们曾向《纽约时报》解释说,与任何单一来源一样,他们的内容对我们现有模型的训练没有任何意义,对未来的训练也没有足够的影响。他们在12月27日提起的诉讼,我们是通过阅读《纽约时报》得知的,让我们感到意外和失望。

 

一路走来,他们曾提到看到一些重复他们内容的情况,但一再拒绝分享任何实例,尽管我们承诺调查并解决任何问题。我们已经证明了我们是如何认真对待这一优先事项的,例如在 7 月份,当我们得知 ChatGPT功能可能会以非预期的方式复制实时内容后,我们立即关闭了该功能。

 

有趣的是,《纽约时报》诱导转载的内容似乎来自多年前的文章,而这些文章已在多个第三方网站上泛滥。为了让我们的模型进行反流,他们似乎有意篡改了提示语,通常包括冗长的文章节选。即使在使用此类提示时,我们的模型通常也不会像《纽约时报》影射的那样,这表明他们要么是指示模型进行反流,要么是从众多尝试中挑选出的例子。

 

尽管《纽约时报》声称,这种误用并非典型或允许的用户行为,也不能替代《纽约时报》。无论如何,我们正在不断提高我们系统的抗逆性,以抵御反流训练数据的攻击,并已在我们最近的模型中取得了很大进展。

 

我们认为《纽约时报》的诉讼毫无根据。尽管如此,我们仍希望与《纽约时报》建立建设性的合作关系,并尊重其悠久的历史,其中包括 60 多年前报道第一个工作神经网络和捍卫第一修正案规定的自由。

 

我们期待与新闻机构继续合作,通过实现人工智能的变革潜力,帮助提升他们制作高质量新闻的能力。

 

笔者的评注:这部分除了介绍诉讼前双方的交流,其他内容主要是总结,OpenAI告诉大家,他们有技术措施防止受版权保护的训练素材被重现给用户,他们还是希望和《纽约时报》合作并帮助新闻行业。


参考资料:

[i] https://openai.com/blog/openai-and-journalism

[ii] https://mp.weixin.qq.com/s/1TTkYh2yJZgd_CSCbtdgkw

[iii] https://platform.openai.com/docs/gptbot

[iv] https://mp.weixin.qq.com/s/mTwdFVs5wCV7hMdyOCasLQ

[v]  https://www.regulations.gov/comment/COLC-2023-0006-8906

[vi] https://twitter.com/OpenAI/status/1676072388436594688

[vii] https://openai.com/policies/terms-of-use


本文作者:游云庭,上海大邦律师事务所高级合伙人,知识产权律师。电话:8621-52134900,Email: yytbest@gmail.com,本文仅代表作者观点。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: