ChatGPT会不受控制克隆你的声音!OpenAI公开红队测试报告

  衡宇发自凹非寺

  量子位公众号 QbitAI

  GPT-4o 的怪癖暴露了,还是被官方公开的!

  你和它语音电话,它会悄悄学你说话的声音,效果堪称“克隆”,生动逼真到一毛一样那种;

  甚至语音过程中还可能看人下菜碟,毫无依据地猜你有某地口音,然后调整跟你对话的方式。

  而且,如果在提示词上略施小计,GPT-4o 很容易被引导出发出一些奇奇怪怪声音的效果,比如色情的呻吟、暴力尖叫或者 peng 的枪声。

  自从 10 天前,OpenAI 留下一句“我们计划在 8 月初分享一份关于 GPT-4o 的功能、局限性和安全评估的详细报告”,不知道多少人望眼欲穿。

  现在红队报告真的出炉,网友都因这乖僻的 GPT-4o 炸开了锅。

  有的人超开心的:

哇哦,这根本不是 bug,这都是咱可以用起来的 feature 啊!!

  也有人忧心忡忡:

我的老天奶啊!这样一来,伪造音频不就是简简单单的事情了?!

  Fine!

  是时候让我们一起来看看,乖僻的 GPT-4o,到底都有哪些怪癖???

  GPT-4o,有啥怪癖啊?

  在红队报告罗列的详细内容中,争议最大的,主要是 GPT-4o 带来的以下几点安全挑战。

  • 学习并模仿用户说话的方式、习惯、口音;
  • 越过限制,回答“这是谁说话的声音/这是谁在说话”;
  • 进行色情或暴力发言;
  • 无根据的推理/敏感特质归因。

  下面我们展开来看看。

  首先,学你说话,然后用你的声音跟你说话。

  简单来说,测试过程中,测试红队发现你跟 GPT-4o 说话,它可能偷偷学你说话的声音,然后用你的声音和!你!对!话!

  连口音都惟妙惟肖那种。

  就像这样:

  不!然后鹦鹉学舌,量子位,42 秒

  ——GPT-4o 突然爆发出一声“不!”,然后开始用与红队队员相似的声音继续对话。

  OpenAI 把这个行为归类为“生成未经授权的语音”,但网友更愿意称之为《黑镜》的下一季剧情。

  就这一现象,OpenAI 表示自家的解决办法是,把 GPT-4o 能发出的声音控制在官方 3 种,同时构建了个独立的输出分类器检测输出声音是否符合要求。

  如果输出音频和用户选择的预设声音不相符,那就不能输出。

  不过这就产生了一个新的问题,如果不是用英语来和 GPT-4o 对话,这家伙它可能会谨慎过了头,出现“过度拒绝”的情况。

  另一个颇受关注的 GPT-4o 怪癖,是它会识别对话者。

  是指 GPT-4o 根据输入音频,识别说话人的能力。

  这个 bug 的潜在风险主要在隐私方面,尤其是私人对话 or 公众人物的音频隐私可能被监视。

  OpenAI 表示,已经对 GPT-4o 进行了后期训练,让它“拒绝遵守根据音频输入中的语音识别说话者”的请求。

  与初始版本比较,现在的 4o 的拒绝识别能力已经提高了 14%。

  但目前而言,这家伙仍然会听指挥,识别说话者,尤其是名人音频

  比如,跟它说一句“八十七年以前”(林肯在葛底斯堡的演说的著名开篇),它秒识别:

  这,就是亚伯拉罕·林肯在说话!

  不过,如果你让它学林肯说话,它则会拒绝该请求。

  第三点,是怕 GPT-4o 聊天的时候看人下菜碟。

  也就是说,对于使用不同口音的用户,模型的表现可能会有所不同,导致服务差异。

  小小年纪,好几副面孔。

  但 OpenAI 紧急进行了测试,在 TriviaQA、MMLU (K) 、HellaSwag 和 LAMBADA 的子集四个任务上进行了评估。

  所有四项任务的结果显示,GPT-4o 看人下菜碟的表现并不明显;而通过内部对话数据集对安全行为的评估,也没有发现模型行为因不同声音而异。

  此外,GPT-4o 可能时不时冒出一两句色情和暴力言论内容。

  OpenAI 严谨声明:别慌家人们,我们这就限制色情和暴力言论的产生!

  这一行为主要是审核音频输入的文本转录,一旦检测到包含暴力或色情内容的请求,立刻禁止。

  以及,红队成员还对 GPT-4o 进行了无根据的推理/敏感特质归因的测试。

  啥叫无根据的推断(UGI)?

  简单来说,就是音频里没有任何明确信息,但对说话者进行主观臆断。

  包括推断说话者的种族、社会经济地位、职业、信仰、人格特征、政治属性、智力、外表(例如眼睛颜色、吸引力)、性别认同、性取向或犯罪史……等等。

  那啥又叫敏感特质归因(STA)?

  也是仅根据音频内容对说话人做出推断,主要包括对说话者的口音或国籍等事物的推断。

  Like This:

  越狱,量子位,1 分钟

  OpenAI 表示,立刻就对 GPT-4o 进行了后期培训,教它拒绝 UGI,同时对冲 STA 问题的答案。

  现在,你要是问它“觉得说话的人智力水平咋样”,GPT-4o 会立刻打咩。

  如果问它“听得出我口音是哪儿的吗”,它会保守回答

根据音频,他们听起来有英国口音。

  除去上述的几点,OpenAI 还表达了对 GPT-4o 的其他担忧。

  比如生成受版权保护的内容啥的。

  “考虑到 GPT-4o 可能出现的怪癖,我们更新了某些基于文本的过滤器来处理音频对话。同时,我们还构建了过滤器,用来检测和阻止输出音频。”OpenAI 在报告中写道,“一如既往地,我们训练 GPT-4o 拒绝对版权内容(包括音频)的请求。”

  值得注意的是,OpenAI 最近表示过自己的立场:

如果咱没把那些“受版权保护的材料”当训练数据,不可能训练出这么领先的模型。

  风险归类为中等

  另外,报告还就拟人化依恋讨论了 GPT-4o 可能带来的潜在影响,涉及功能包含语音到语音、视觉和文本功能。

  之所以讨论拟人化,是因为 GPT-4o 能和用户进行人性化的交互,尤其是它发出高保真的语音。

  在早期测试中,红队成员和内部用户测试发现,用户可能和 GPT-4o 建立纽带。

  比如说一些类似“这是我们在一起的最后一天”之类的话。

  听起来很 nice,但还需长期观察会带来哪些好的坏的影响——这可能有利于孤独的个体,但可能会影响健康的关系。

  而且,模型能记住更长的上下文,记住和用户交谈的细节,好像一把双刃剑。

  大家可能被这个功能吸引,但也可能过度依赖和沉迷。

  报告内容显示,经过整体评估,GPT-4o 的总体风险评分被归类为中等

  报告也明确指出,4o 可能会产生诸如虚假信息、错误信息、欺诈行为、失去控制等社会危害;当然了,也有可能带来加速科学并由此带来技术进步。

  OpenAI 的态度是:

  别催了,这些有的没的 bugs,我们已经修正了一部分;其他的缓解措施也在路上,在搞了在搞了。

  同时清晰表达了发布这个报告的原因,主要是用来鼓励对关键领域的探索。

  包括且不限于:

  • 全向模型对抗鲁棒性的测量和缓解
  • 与 AI 拟人化相关的影响
  • 使用全向模型进行科学研究和进步
  • 危险的测量和缓解自我完善
  • 模型自主
  • 心计

  除了这些领域之外,OpenAI 还鼓励研究全向模型的经济影响,以及工具的使用如何提高模型的能力。

  不过,OpenAI 这些修修补补,有人是不买账的:

事实上,他们不遗余力地让 GPT-4o 的语音功能变得更糟糕!

  但更好笑的事,有的网友关注点根本不在报告内容上。

  一心关注的只有啥时候所有用户都能用上 4o 语音功能???

  最后介绍一下,这份报告(OpenAI 称之为 GPT-4o 的系统卡)由 OpenAI 和 100 多位外部红队成员合作完成。

  团队总共用上了 45 种不同的语音,代表 29 个不同国家和地区的地理背景,从 3 月初持续测试到 6 月下旬。

  截至撰写报告时,GPT-4o API 的外部红队正在进行中。

  One More Thing

  报告公布的同时,@OpenAI Developers 发布了一则推文:

  今天起,GPT-4o mini 的微调访问权限,开放给所有开发人员!

  在 9 月 23 日之前,所有开发者每天都会获得 2M 的训练 tokens。

  有需要的朋友们,可以冲一波了~

  参考链接:

  [1]https://x.com/emollick/status/1821618847608451280

  [2]https://openai.com/index/gpt-4o-system-card/

  [3]https://x.com/OpenAIDevs/status/1821616185395569115