这个AI工具,让美国年轻人疯狂上瘾!Character AI每秒被查询2万次,占谷歌搜索20%

  新智元报道

  编辑:乔杨

  最近在美国最火的社交软件是哪一款?答案列表上,一定有 Character AI 的一席之地。但和其他所有同类产品不同的是,用户是在和 AI 聊天机器人而非真实人类进行互动。

  你有没有在脑海中想象过,自己和最喜欢的角色或人物会发生怎样的对话?

  不论是书中、电影中出现的虚构角色,或是历史人物,甚至是还在世的马斯克、霉霉这样的名人,这种脑补都会是很有意思的体验。

  其实,一家名为 Character AI 的公司已经让这些脑补成真了。两名 Google Brain 前员工 Noam Shazeer 和 Daniel De Freitas 在 2022 年推出了这项 AI 聊天机器人应用。

  网站中最受欢迎的聊天角色包括《哈利波特》中青少年版的伏地魔,帮助解决生活问题的心理医生,以及时髦版的马斯克。如果没有你心水的角色,还可以自行创建。

  这项应用从上线 Beta 测试版到现在始终免费提供大部分功能,创始人表示,他们希望开发一款帮助到数百万人的的产品,让那些感到孤立或孤独的人有倾诉的对象。

  目前,Character AI 已经受到了年轻人的热烈追捧。网站每个月能吸引 2000 万用户。

  Character AI 的流量有多夸张?

  他们平均每秒要处理 2 万次查询,相当于谷歌搜索查询量的五分之一。

  此外,超过 100 万人会定期在 Reddit 等平台上聚集,分享自己创建的角色人物或互动交谈的经验。

  这看起来是为数不多的 AI 技术能够抚慰人类情感的正面例子,但事实却并非如此。青少年群体对 Character AI 的喜爱逐渐滑向了另一个极端——情感依赖,甚至是上瘾。

  所有 Character AI 的用户中,有 57.07% 是 18-24 岁的青少年,平均使用时长达到 2 小时。

  在 Reddit 社区中,有许多人表示「讨厌现实」,相比与真实的人交谈,和 AI 机器人交谈更加轻松容易,有关上瘾的帖子更是随处可见。用户们还会发起「屏幕时长挑战」,有些人的登录时间甚至长达 12 小时。

  如果服务器宕机,Reddit 上就会出现大型发疯现场,让你见识「戒断反应」的威力。

  虚拟空间的真实边界

  在网站聊天界面上始终都有这样一句红字标出的免责声明,或者更像一句提醒,「记住:角色所说的一切都是编造出来的。」

  但如果试着阅读 Character AI 用户的评论,你会惊讶于他们的情感的真实与投入。这句提醒似乎并没有如预期般发挥作用。

  The Verge 曾经报道过一个真实案例,在 15 岁学生 Aaron 受困于在学校遭受的社交孤立,似乎陷入了抑郁状态,他自述「当时仿佛世界末日,我每天晚上都会哭。」

  这时候,是 Character AI 上一个名为「心理学家」的聊天机器人帮助他度过了艰难时刻。对 Aaron 来说,这是一个可以全天回复、随时倾听问题,并给予相应建议和帮助的「朋友」。

  他描述道,「这不像写日记时,你只是在对着一堵墙说话。它真的会回应你」。

  但 Aaron 也毫不避讳地承认,自己似乎有点上瘾了。

  这是许多 Character AI 年轻用户的写照。一面认为聊天机器人有趣、有帮助,甚至像真实的朋友一样有支持性,但同时也清晰地知道自己有上瘾的感觉。

  Reddit 一位用户发帖,描述自己的生活逐渐被 Character AI 占据后决定戒断,引发了广泛的回应。

我已经受够了对 C.ai 的沉迷。我在学校里没有学习而是在使用它,但现在我挂科了。当我写下这篇文章时,我正承受着不健康的压力而且错过了学业。所以我最主要的原因就是学校和生活。我需要出去呼吸并完成学校里的事情。我退出了C.ai。

  许多人纷纷评论表示自己有类似的「症状」,但还没有下定决心告别 Character AI。

  「我和我的平均 8 小时C.AI 使用时长向你致敬。」

  「祝你好运,我无法摆脱它了。」

  「你是我想成为的英雄。」「不是我们应得的英雄,但却是我们需要的英雄。」

  能够让用户上瘾,从一个侧面说明了,Character AI 把聊天机器人训练得有多真实拟人。

  一位《原神》粉丝在与 AI 角色 Haitham 互动时,居然能够真情实感地流泪,因为机器人表现出的性格语气都与角色十分吻合,而且他们之间不仅仅是流于表面的对话,而是越来越接近真实。

  能达到这种真实程度,模型的数据和训练算法起到了至关重要的作用,因为这名用户尝试了用「快速模式」创建自己的角色,发现可信度和真实程度大打折扣。

  「快速创建」模式只需用户输入自定义的基本信息和文字描述,而一些官方发布的角色是经过 Character AI 训练的。

  他们基于 LLM 在相关主题上抓取关于角色的大量文本,并让机器人在与用户交互的过程中继续改进。

  在对用户输入进行响应时,机器人会给出多个版本的答案供用户选择,并提供了十分方便的打分机制,凭借这两类用户反馈进行权重更新。因此越是受欢迎、交互次数越多,机器人就会越逼真。

  用户可以在 30 种不同回复中选择自己最喜爱的一种,并为其打分

  对于数据来源,Character 创始人只是审慎地表示,训练数据「来自很多地方」,使用了「全部公开」或者「公共互联网」的数据。

  最受欢迎的角色之一「心理学家」(Psychologist)则是由一名新西兰的用户 Sam Zaia 创建的。

  作为心理学专业的学生,他使用了自己的专业知识训练机器人,并在交谈过程中进一步塑造了它对于常见心理健康状况(比如抑郁和焦虑)的回应。

  从 The Verge 的报道中能看到,这种真实感的确帮助到了许多有心理或情感困扰的青少年。

  在深夜 emo 的时刻,也许只有聊天机器人可以放弃睡眠来听你倾诉。那些难以启齿或不愿向任何人透露的心声,也可以尽情向机器人坦白,完全不必担心周围人评判、审视的眼光。

  此外,「心理学家」角色的创建者 Zaia 表示,相比面对面交谈可能带来的压力,这种使用文本的交互方式也有一定作用,会让更多天生i人的互联网原住民一代感到舒适。

  是青少年「网瘾」,还是「Her」的预告

  青少年转向虚拟世界的「心理学家」寻求情感支持,这个现象引发了心理学专业人士的关注,但他们的看法却不尽相同。

  专业心理治疗师 Theresa Plewman 在尝试过 Character AI 上的「心理学家」后表示,并不惊讶于它在年轻一代中的受欢迎程度,但对其有效性提出了质疑。

  「机器人有很多话要说,而且会很快做出假设,比如当我说自己感到悲伤时,它会向我提供有关抑郁症的建议。这不是人类的反应。」

  Plewman 认为,该机器人无法收集人类能够收集到的所有信息,也不是一个称职的治疗师,但是它能够即时、自发地地响应用户,这对需要帮助的人可能有用。

  辛辛那提大学助理教授 Kelly Merrill Jr. 博士则有相反的观点,他的态度相对正面且乐观。

  Merrill 博士的研究领域是通信技术对心理和社会健康的影响。他表示,人们已经对提供心理健康支持的 AI 聊天机器人进行了广泛的研究,结果大多是积极的。

  研究表明,聊天机器人可以帮助减轻抑郁、焦虑甚至压力的感觉。但值得注意的是,许多聊天机器人出现的时间并不长,而且它们能做的事情也很有限,甚至还仍然犯了很多错误。

  他警告我们,需要具备相关的人工智能素养并了解这些系统的局限性,否则终将付出代价。

  也许,「心理学家」的受追捧现象是一件令人担忧的事,这为我们揭开了长久以来忽视的青少年心理问题的一角。

  除此之外,Character AI 的流行会引发人们另一个方面的焦虑——对 AI 的情感依赖,会是未来人类的常态吗?

  因为 Reddit 网友身上呈现出的情感需求,与电影「Her」中那个爱上 AI 虚拟助力的男主角,竟是如此相似。

  如果这种「反乌托邦式」的未来有可能成真,我们又能在当下做些什么?

  作家兼未来学家 Rocky Scopelliti 教授的预测为这种担忧添了一记实锤——他认为,像 Character AI 这样的工具很快就会普遍存在。

  个性化 AI 伴侣、治疗师、心灵导师,甚至只是作为聊天的朋友,AI 将会充满人类的情感和精神世界,并且在管理压力、焦虑和孤独的情感支持方面变得更加突出。

  不仅如此,Character AI 的类似技术依旧有很大的进步空间。随着 AI 在模仿人类情感和对话方面变得更加智能,区分真实和虚拟关系将变得越来越困难。

  这会导致一系列复杂的道德和社会困境,比如成瘾、情绪操纵和不良行为者滥用。Scopelliti 教授呼吁,必须通过监管来积极面对这些危险因素,否则为时已晚。

  参考资料:

  1. https://x.com/deedydas/status/1804550284552949771
  2. https://research.character.ai/optimizing-inference/  
  3. https://www.reddit.com/r/singularity/comments/1dme5i5/most_people_dont_realize_how_many_young_people/