OpenAI 声称纽约时报通过作弊方式让ChatGPT复述文章
划重点:
- 🤖 OpenAI 声称纽约时报使用 “欺骗性提示” 让 ChatGPT 复述其内容,并要求法院驳回诉讼中的多项指控。
- 📰 OpenAI 指称纽约时报利用其产品的漏洞,直接向聊天机器人输入文章内容,导致侵权行为。
- ⚖️ OpenAI 寻求部分驳回纽约时报关于直接侵权指控的诉讼,同时也否认其他多项指控。
OpenAI 在周一提交的文件中声称,纽约时报利用 “欺骗性提示” 使 ChatGPT 复述其内容。因此,该公司要求美国南纽约地区法院驳回该机构的侵权诉讼中的若干指控。
OpenAI 声称,该时报利用了一个目前正在修复的漏洞,并直接向聊天机器人输入文章内容,以使其输出文字。该公司表示:“普通人不会这样使用 OpenAI 的产品”,并引用了2023年4月时报的一篇文章标题为 “35种真实人们目前如何使用人工智能”。这与 OpenAI 在一月份公开回应中提出的观点非常相似。
纽约时报的首席律师伊恩・克罗斯比在电子邮件中称,纽约时报的做法被称为黑客行为是一种歪曲,时报只是利用 OpenAI 的产品寻找证据证明他们窃取并复制了时报的受版权保护作品。他补充说,OpenAI 并没有否认 “在法定时效内未经许可复制了时报的作品”。
纽约时报在去年12月起诉 OpenAI 和微软,声称这两家公司训练其 AI 模型使用其内容,并且他们的聊天机器人可以逐字复制文章。时报声称,这使其损失了收入,并危及了其与读者的关系。OpenAI 希望部分驳回时报的直接侵权指控,“在此诉讼之前三年内进行的复制行为”。同时,OpenAI 要求法院驳回其他指控:OpenAI 参与侵权行为;OpenAI 未能删除侵权信息;OpenAI 通过挪用创造不正当竞争。时报的诉讼还声称商标侵权、共同法非正当竞争挪用和代理侵权指控。
与此同时,OpenAI 将 Sarah Silverman 和其他作者的诉讼中的多项指控减少为单一的直接侵权指控。尽管 OpenAI 的请求在这起诉讼中取得成功,但这两起案件并不是针对 AI 公司的唯一诉讼。像 OpenAI、Anthropic 和 Stability AI 等初创公司正在面临越来越多的法律诉讼,其中一些来自经验丰富、好斗的组织,有时甚至有几十年的版权纠纷经验。
- 0004
- 0001
- 0000
- 0000
- 0000