正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-01-09 10:49

纽约时报诉OpenAI侵权案,回应来了

本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:OpenAI安全与对齐,原文标题:《OpenAI回应〈纽约时报〉控告:训练数据是合理使用,提示有故意操纵》,头图来自:视觉中国

文章摘要
OpenAI在回应《纽约时报》诉讼时表示,他们与新闻机构合作,并且尊重合作伙伴关系。他们认为使用公开可用的互联网材料训练AI模型是合理使用,并提供退出选项以防止工具访问出版商的网站。OpenAI还表示他们正在努力消除模型输出中的重复,并指出《纽约时报》没有讲述完整的故事。

• 💼 OpenAI与新闻机构合作,为他们提供支持和解决问题的机会。

• 📚 OpenAI认为使用公开互联网材料训练模型是合理使用,并提供退出选项。

• 🔄 OpenAI致力于消除模型输出中的重复,并提供负责任的使用指导。

我们的目标是开发AI工具,赋予人们以往难以企及的解决问题的能力。全球各地的人们已经在使用我们的技术来改善他们的日常生活。如今,数百万开发者和超过92%的财富500强公司都在使用我们的产品。


尽管我们不同意《纽约时报》诉讼中的指控,但我们认为这是一个机会,以澄清我们的业务、意图以及我们构建技术方式。我们的立场可以概括为以下四点,并在下文中进行详细阐述:


1. 我们与新闻机构合作,并创造新机会;


2. 训练是合理使用,但我们提供退出选项,因为这是正确的事情;


3. “重复”是我们正在努力消除的罕见错误;


4. 《纽约时报》没有讲述完整的故事。



说明:《纽约时报》2023年12月27日在美国法院起诉OpenAI和微软公司,指控其未经许可使用其数百万篇文章以训练人工智能模型    


一、我们与新闻机构合作,正在创造新机会


我们在技术设计过程中努力支持新闻机构。我们已经会见了数十家新闻机构,以及像新闻/媒体联盟这样的行业组织,探索机会、讨论他们的关切,并提供解决方案。我们的目标是学习、教育、倾听反馈并适应。


我们的目标是支持一个健康的新闻生态系统,成为良好的合作伙伴,并创造互惠互利的机会。基于这一点,我们与新闻机构建立了合作伙伴关系,以实现这些目标:


1. 部署我们的产品,以支持和帮助记者和编辑,协助完成诸如分析庞大的公共记录和翻译报道等耗时任务。


2. 通过在额外的历史性、非公开内容上训练,教导我们的AI模型了解世界。


3. 在ChatGPT中实时显示内容,并标明来源,为新闻出版商提供与读者联系的新方式。


我们与美联社、阿克塞尔·施普林格、美国新闻项目和纽约大学的早期合作,让我们的方法可见一斑。


二、训练是合理使用,但我们提供退出选项,因为这是正确的事情


使用公开可用的互联网材料训练AI模型是合理使用,这一点得到了被长期和广泛接受的先例的支持。我们认为这一原则对创作者公平、对创新者必要、对美国竞争力至关重要。


训练AI模型被视为合理使用的原则,得到了广泛的支持,学者、图书馆协会、民间社会团体、初创企业、领先的美国公司、创作者、作者等最近向美国版权办公室提交了意见。其他地区和国家,包括欧盟、日本、新加坡和以色列,也有允许在版权内容上训练模型的法律——这对AI创新、进步和投资是有利的。


话虽如此,法律权利对我们来说不如做好公民重要。我们在为出版商提供简单的退出过程方面引领了AI行业(《纽约时报》于2023年8月予以采纳),以防止我们的工具访问他们的网站。


三、“重复”是我们正在努力彻底消除的罕见错误


我们设计和训练模型去学习概念,以便将其应用于新问题。


死记硬背是学习过程的少见失败,我们正在不断取得进展,但当特定内容在训练数据中出现不止一次时(比如如果部分内容出现在许多不同的公共网站上),这种情况就更常见。因此,我们采取措施限制无意的记忆和防止模型输出中的重复。我们还希望我们的用户采取负责任的行为;故意操纵我们的模型以造成重复不是我们技术的适当使用方式,也违反了我们的使用条款。


人类通过广泛的教育以学习如何解决新问题,如我们希望我们的AI模型观察世界信息的范围包括来自每种语言、文化和行业的信息。因为模型是从人类知识的巨大总和中学习的,任何一个领域——包括新闻——在总体训练数据中都只是一小部分,任何单一数据源——包括《纽约时报》——对模型预期的学习都不具有重大意义。


四、《纽约时报》没有讲述完整的故事


我们与《纽约时报》的最后一次通信是在12月19日,当时讨论似乎正在建设性地进行。谈判的重点是围绕一种高价值的合作,在ChatGPT中实时显示内容并标明来源,《纽约时报》将与其现有和新读者建立起一种新的连接,而我们的用户将获得对他们报道的访问权。我们已向《纽约时报》解释,就像任何单一来源一样,他们的内容对我们现有模型的训练没有实质性贡献,也不会对未来的训练产生足够的影响。他们在12月27日提起的诉讼(我们是通过阅读《纽约时报》了解到的)令我们感到惊讶和失望。


在此过程中,他们曾提及看到一些他们内容的重复,尽管我们承诺调查并解决任何问题,他们却一再拒绝分享任何实例。我们已经展示了我们的严肃态度,优先处理此事,比如在7月,我们得知ChatGPT可能以意外的方式复制实时内容后,我们立即下架了该功能。


有趣的是,《纽约时报》引出的重复内容似乎来自于多年前的文章,这些文章在多个第三方网站上广泛传播。看起来他们故意操纵提示,经常包括文章的长篇摘录,以使我们的模型重复。即使使用这样的提示,我们的模型通常也不会像《纽约时报》暗示的那样行为,这表明他们要么指示模型重复,要么从多次尝试中挑选他们的例子。


尽管他们一再声称,这是一种误用,并不是典型的或被允许的用户活动,也不是《纽约时报》的替代品。无论如何,我们正在不断地使我们的系统更具抵抗性,抵御那些使用重复训练数据的对抗性攻击,我们的最新模型已经取得了很大的进展。


我们认为《纽约时报》的诉讼没有根据。尽管如此,我们仍然期待与《纽约时报》建立建设性的合作关系,并尊重其悠久的历史,包括60多年前报道第一个工作神经网络以及捍卫第一修正案自由。


我们期待继续与新闻机构合作,通过实现人工智能的变革潜力,帮助提升他们产生高质量新闻的能力。


本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:OpenAI安全与对齐

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: