万人签名呼吁暂停ChatGPT AI自我迭代更可怕?

  每经记者:李孟林蔡鼎谭玉涵每经编辑:谭玉涵,兰素英,卢祥勇,易启江

  因强大功能而爆红的 ChatGPT 正因数据隐私和安全风险在全球掀起一场监管风暴。

  一周之内,意大利、德国、法国、爱尔兰等 8 国相继“出手”。此外,它还可能面临全球首例 AI 诽谤诉讼。据悉,马斯克此前发起的暂停训练比 GPT-4 更强大的 AI 系统的公开信响应人数仍在不断增加,截至发稿,已有超 1.8 万人签名。

  意大利监管方是出于何种考虑?AI 会出现意识吗?《每日经济新闻》记者连线爱尔兰数据保护委员会以及中国人民大学高瓴人工智能学院教授卢志武进行解读。

  人工智能的未来,充满巨大想象空间。图为第六届世界智能大会上,参会嘉宾在参观展览新华社图

  8 国“围剿”ChatGPT

  因强大功能而爆红的 ChatGPT 正因数据隐私和安全风险在全球掀起一场监管风暴。

  继意大利宣布暂时封禁 ChatGPT 之后,德国也表示正在考虑暂时禁用。紧随其后,法国、爱尔兰、西班牙等欧洲国家的监管机构也相继表达了类似可能性。与此同时,加拿大的隐私监管机构已经宣布对 OpenAI 展开调查,美国方面也在探讨加强对 AI 的监管。不仅如此,由于生成了虚假内容,ChatGPT 恐将在澳大利亚面临全球首例诽谤诉讼。

  此外,马斯克、图灵奖得主本吉奥等 1000 余名科技大佬还发表联名公开信,呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统至少 6 个月。截至发稿,这份公开信的签名人数已超 18000 人。

  “我们正在关注意大利监管机构的行动,以了解其行动背后的理由。在 ChatGPT 这件事情上我们将和欧盟所有的数据保护机构协作。”爱尔兰数据保护委员会(DPC)对《每日经济新闻》记者表示。

  意大利对 ChatGPT 的禁令,掀起了一轮针对 OpenAI 的监管风暴,德国监管机构已计划跟进,表示正在考虑暂时禁用 ChatGPT,紧随其后,法国、爱尔兰、西班牙等欧洲国家的数据监管也相继表达了类似担忧。

  OpenAI 面临的压力可谓与日俱增。除欧洲外,加拿大方面已经采取行动,其隐私监管机构宣布因数据违规问题对 OpenAI 展开调查。而在美国,拜登也会见了科技顾问,讨论 AI 带来的风险和机遇,并表示将加强监管。

  为了打消疑虑和担忧,OpenAI 也在积极行动。当地时间 4 月 5 日晚,OpenAI CEO 萨姆·阿尔特曼表示将于次日向意大利数据保护局提交相应措施。意大利数据保护局表示将评估 OpenAI 的方案,该机构同时强调,他们无意阻碍人工智能技术的发展。同日,OpenAI 还在官网发布了题为《我们保障 AI 安全的方法》的文章,介绍了该公司为保障安全性在六个方面进行的部署。

  但在隐私和数据安全之外,ChatGPT 生成错误事实的“幻觉”问题也开始在现实世界中掀起波澜。

  据路透社 4 月 5 日报道,澳大利亚赫本郡市长布赖恩·胡德(Brian Hood)称在 ChatGPT 生成的内容里,自己因贿赂东南亚官员而被判处 30 个月监禁,这与事实完全不符,但“其中有些段落却是绝对精确的,包括数字、姓名、日期、地点等”。

  胡德表示,如果 OpenAI 不纠正 ChatGPT 关于其曾因贿赂入狱服刑的虚假说法,他可能会起诉 OpenAI,这将是针对生成式 AI 的第一起诽谤诉讼。

  对于意大利暂时封禁 ChatGPT 的做法,中国人民大学高瓴人工智能学院教授、首个中文通用多模态预训练模型“文澜 BriVL”的主要设计者卢志武认为这并不明智。

  “一个新技术总会有好的和不好的方面,不能说因为有不好的地方就把它禁掉。汽车会造成车祸,难道就因此把汽车禁掉吗?欧洲本来在 AI 方面就落后于美国,与中国也有差距,禁掉之后不是会更差么?”他对《每日经济新闻》记者解释称。

  “像隐私问题和 AI 生成内容以假乱真的问题,可以通过法律手段去约束 AI 模型,这样研发者在训练模型时就会规避这些风险。”卢志武进一步说道。

  此外,法律还可以规定使用者必须对 AI 生成的图片和视频等内容进行标注,假如国家法律部门检测到未标注的生成内容,可以采取惩罚措施。“特别是新闻相关的内容,一定不能是 AI 生成的,否则就乱套了,成为了假新闻。”卢志武表示。

  卢志武认为,AI 法律完善的目标就是让 AI 的开发者和使用者都“心里有数”,但对于新生事物的法律监管有滞后性,这在 AI 上也不例外。

  针对 AI 生成内容的事实错误问题,卢志武认为可以通过工程手段解决,比如先利用搜索引擎去搜索互联网上的档案性内容,然后再利用这些内容生成答案,这样能在很大程度上消除事实性错误。

  自我迭代更可怕?

  数据安全和错误内容是生成式 AI 带来的紧迫而现实的问题,但尚可以通过技术和法律手段加以规避。随着 AI 技术的飞速发展,人类可能面临从未遇到过的新威胁。

  近日,马斯克、图灵奖得主本吉奥等 1000 余名科技大佬发表联名公开信,呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统至少 6 个月。公开信指出,AI 最终可能超越人类,使人类失去对文明的掌控能力。截至发稿,这份公开信的签名人数已经超 18000 人。

  卢志武对《每日经济新闻》记者称,这份公开信的目的是呼吁大家重视大语言模型的安全性,但实际上没有操作性,因为没有相应的全球权威机构出面来暂停大型 AI 模型的实验。

  在 ChatGPT 展现出强大的对话能力时,人类也越来越担心:会不会 AI 系统在迅速进化的过程中“涌现”出自我意识?

  “未来有没有我不敢说,但至少从 GPT-4 来看,它是不会产生意识的。”卢志武对记者表示。“但我们开发 AI 的终极目标是实现 AGI(通用人工智能),就是让 AI 模型表现得像人一样。如果要达到这个目标,那么这个过程中真的有可能失控。”

  在卢志武看来,所谓的失控并不是 AI 出现意识,而是 AI 学会了自我迭代。“AI 模型自己不停地学习,甚至创造出新的东西来,而这个过程又在人类的监控之外。这种自我学习是非常容易实现的,我觉得这才是 AI 最大的威胁。”

  近日,研究人员 Noah Shinn 和 Ashwin Gopinath 在预印本网站 arxiv 提交论文称,通过引入“反思”技术,GPT-4 在多项高难度测试中的表现提升了 30%。据悉,这种技术让 AI 系统模仿人类的自我反思,并评估自己的表现,“GPT-4 在完成各种测试的时候,会增加一些额外的步骤,让它能够自己设计测试来检查自己的答案,找出错误和不足之处,然后根据发现来修改自己的解决方案。”

  卢志武认为,AI 学会自我迭代所产生的后果难以具体想象,但如果一个东西在不停地变强而人类却不知道,这是“最可怕的”。未来,假如 AI 模型和机器人进行结合,则 AI 就可以产生动作,“你都不知道它是不是会拿起枪来做什么事情”。

  而实际上,科学家已经在探索如何将生成式 AI 与机器人相结合。微软的科学家 2 月份发布论文称,他们正在研究利用 ChatGPT 来操控机器人,以实现以自然语言与机器人交互的目的,并展示了无人机和机械臂的操作案例。