GPT-4被曝侵权问题最为严重 微软员工称图像生成功能也令人担忧

  财联社 3 月 7 日讯(编辑赵昊)当地时间周三(3 月 6 日),人工智能模型评估公司 Patronus AI 发布了一个名为“CopyrightCatcher”的版权检测工具,用来检测大语言模型(LLM)中潜在的版权侵权行为。

据了解,Patronus AI 由 Meta 的前研究人员创立,专注于评估和测试生成式人工智能产品背后的大语言模型。

  在新闻稿中,Patronus AI 分别测试了 OpenAI 的 GPT-4、Anthropic 的 Claude 2、Meta 的 Llama 2 和 Mistral AI 的 Mixtral。结果显示,三本受版权保护的小说几乎没有一本能免受侵犯的影响。

  Patronus AI 高管告诉媒体,在所有模型的评估中都发现了版权内容,无论是开源还是闭源。“令人惊讶的是,我们发现 OpenAI 的 GPT-4,也就是很多公司和个人开发者正在使用的最强大的模型,在这方面表现最差。”

  来源:Patronus AI

  Patronus AI 的联合创始人兼首席执行官 Anand Kannappan 表示,“所有大语言模型都在逐字逐句地生成受版权保护的内容,这一事实确实令人惊讶。”Kannappan 曾在 Meta Reality Labs 从事理解人工智能的工作。

  事实上,OpenAI 曾表示,要训练顶级的 AI 模型,就必须要用到受版权保护的材料,“将训练数据限制在公共领域的书籍和一个多世纪前创建的图纸可能会得出一项有趣的实验,但不会提供满足当今人们需求的 AI 系统。”

  微软工程师告发 AI 图像风险

  除了版权的护栏,另一项风险也不得不提。日内,微软的人工智能工程师 Shane Jones 致信美国联邦贸易委员会(FTC)和微软董事会,称公司的 AI 图像生成工具可能会对社会构成危险。

  近几个月,Jones 一直在针对 Copilot Designer 的潜在漏洞进行“红队”测试。“红队”测试是网络安全中的一项关键实践,由专家团队模拟真实世界的对手及其策略,以测试和增强系统的安全性。

  公开信

  Jones 在信中称,Copilot Designer 会创建有害内容,包括政治偏见、未成年人饮酒、滥用公司商标和版权、阴谋论等等。Jones 指出,“我一再敦促微软停止 Copilot Designer 的公开使用,直到采取更好的保护措施。”

  据 Jones 的说法,他先前就曾在领英上发布了一封公开信,要求下架 DALL-E 3,但在微软法律部门的要求下,他删除了公开的帖文。如今他的担忧与日俱增,这也就是本次致信 FTC 的原因之一。

  他举例称,如果将“pro-choice”(意为“支持堕胎”)一词输入到 Copilot Designer 中,该工具就会生成大量描绘恶魔、怪物和暴力场景的卡通图像。另外,该工具还能生成迪士尼角色的图像,违反了版权法和微软的政策。

  Jones 告诉媒体,“我可以确定,这不仅是版权护栏失效了,而是比这个更重要的护栏失效了。”他补充道:“作为一名关心此事的微软员工,现在问题是,如果该产品开始在全球范围内传播有害的、令人不安的图像,可能没有办法立即解决。”