纽约时报作家被AGI「洗脑」!AI横扫奥数金牌、编写95%代码,人类却毫无准备

  新智元报道

  编辑:编辑部 JNY

  NYT 专栏作家 Kevin Roose 近期发文称,强人工智能要来,而人类尚未做好准备。当 AI 在数学奥赛中夺金,完成 95% 代码,深入到我们日常工作的每个角落时,人类真的做好迎接这个前所未有的技术革命了吗?

  一觉醒来,离 AGI 又近了一步。

  纽约时报专栏作家 Kevin Roose,发帖表示自己被 AGI「洗脑」了,现在对 AGI 深有感触。

  强人工智能即将到来,但人类尚未做好准备。

  不论是乐观主义者,还是悲观主义者,Kevin Roose 提出了迈向 AGI 进展的三个论点。

  他相信,在过去的几年里,AI 系统已经在多个领域开始超越人类并且 AI 每天都更聪明。

  而且很快——可能在 2026 年或 2027 年,但也可能就在今年——AI 公司将会宣称他们已经创造了 AGI。

  这不是渐进式的改进,而是颠覆性的飞跃。

  为 AGI 做准备,最佳时机就是现在

  AGI,通常被定义为——能够完成几乎所有人类可以执行的认知任务的通用型 AI 系统。

  Kevin Roose 相信,那些坚称所有进展只是「烟雾弹」,并否认 AGI 可能性的顽固 AI 怀疑论者,不仅在观点上是错误的,而且还给人们一种虚假的安全感。

  无论你认为 AGI 对人类来说是好事还是坏事——坦白讲,现在下结论还为时尚早——它的到来提出了重要的经济、政治和技术问题,而我们目前还没有找到答案。

  Kevin 认为,为 AGI 做准备的最佳时机,就是现在。

  这一切,听起来可能有些疯狂。

  但 Kevin 并不是满怀幻想的未来主义者,也不是炒作 AI 投资组合的投资人,更没有吃了太多「毒蘑菇」然后看完了《终结者2》。

  作为一名记者, 他花了大量时间与构建强 AI 系统的工程师、为 AI 提供资金的投资人以及研究 AI 影响的学者交谈。

  而在这个过程中,他逐渐意识到,目前 AI 领域正在发生的事情,比大多数人所理解的要更重大。

  在 AI 初创公司云集的旧金山,人们谈论着「感受 AGI」。

  而打造比人类更聪明的 AI 系统,已经成为硅谷巨头的明确目标。

  每周,从事 AI 研究的工程师和创业者告诉他,巨变——颠覆性的、前所未有的变革——已经近在咫尺

  去年刚刚离开 OpenAI、独立的 AI 政策研究员 Miles Brundage,认为AGI 可能会在十年内诞生

  在美国除了湾区之外,很少有人听说过 AGI,更别提为其到来做准备了。

  而在媒体新闻业中,那些认真对待 AI 进展的记者,仍有可能被嘲笑为行业代言人的风险。

  尽管如今 AI 系统已经在诺贝尔奖级别的科研突破中发挥作用,尽管每周有 4 亿人使用 ChatGPT,但大多数人在日常生活中接触到的 AI,依然只是个烦人的存在。

  但凡看到 AI 生成的低质量内容充斥着社交媒体动态,或者与笨拙的客服机器人打过交道,就能理解他们的想法:「这玩意儿就要统治世界了?

  曾经,Keinv 也对这种想法嗤之以鼻。但后来,他意识到自己错了。

  有几件事让他开始更加严肃地看待 AI 的进步。

  Hinton 奥特曼 AI 大佬拉响警报

  当今 AI 行业最令人不安的一点是,那些最接近这项技术的人——领先 AI 实验室的员工和高管们——往往也是对 AI 进步速度最感到担忧的人。

  这种情况,相当罕见。

  回想 2010 年,当 Kevin 报道社交媒体崛起时,Twitter、Foursquare 或 Pinterest 的内部人士并不会警告他们的应用可能引发社会混乱。

  小扎也没有测试 Facebook,也没有考虑它是否能被用于制造新型生物武器或发动自主网络攻击的可能性。

  但今天,那些掌握最前沿 AI 技术的人——那些正在研发强 AI,并能接触到更先进系统的专家——却在告诉大家,巨变即将到来。

  各 AI 巨头正在积极为 AGI 的到来做准备,并研究 AI 可能带来的潜在风险,比如它们是否具备策划阴谋或欺骗能力,以应对它们变得更强大、更自主的未来。

  OpenAI 首席执行官奥特曼曾写道:「通向 AGI 的系统已经浮现。」

  Google DeepMind 首席执行官 Demis Hassabis 表示,AGI 可能还需要三到五年的时间

  Anthropic 首席执行官 Dario Amodei(虽然他不喜欢使用「AGI」这个术语,但认可其基本概念)上个月说,他认为距离出现「在几乎所有领域都比人类更聪明的 AI 系统」只有一到两年的时间

  或许,应该对这些预测持保留态度。

  毕竟,AI 公司的高管们有可能从夸大 AGI 的热度中获利,因此他们可能有动力夸大进展。

  但许多独立专家——包括全球最具影响力的 AI 研究者 Geoffrey Hinton 和 Yoshua Bengio,以及前拜登政府的首席 AI 专家 Ben Buchanan——都在表达类似的看法。

  此外,还有许多知名经济学家、数学家和国家安全官员也发出了相似的警告。

  当然,也有一些专家对 AGI 即将到来表示怀疑。

  但即使不考虑那些在 AI 公司工作、或在其中有直接利益的人,依然不应轻易忽视短时间内实现 AGI 的可能性 -- 有足够多独立且可信的声音在提出这种观点。

  LLM 进化速度惊人,拿下奥赛级金牌

  比专家观点更具说服力的,是 AI 系统正在以惊人的速度变得更强大。

  2022 年,当 OpenAI 发布 ChatGPT 时,主流 AI 模型仍然难以处理基础数学运算,在复杂推理问题上常常失败,并且经常产生「幻觉」。

  在特定提示下,当时的聊天机器人确实能表现出色,但你绝不会把它们用于任何至关重要的任务。

  而今天的 AI 模型,已经进步了许多。

  现在,专训的 AI 模型在 IMO 中能达到奖牌级的水平,而通用模型在解决复杂问题上的能力提升得如此之快,以至于不得不设计更难的新测试来衡量它们的能力。

  尽管幻觉和事实错误仍然存在,但新一代模型上已经变得少了许多。

  如今,许多企业已经信任 AI 模型,并将其深度集成到核心业务和面向客户的功能中。

  AI 的进步,一部分是 Scaling law 的结果。更大的模型,结合更多的数据和更强的计算能力,通常能带来更好的效果。

  当前领先的 AI 模型,规模已远超前几代产品。

  但这也离不开近年来 AI 研究的突破——尤其是「推理」模型的诞生。这类模型在生成回答前会额外进行一步计算,从而提升理解和逻辑推理能力,使 AI 的表现更加可靠。

  推理模型比如 OpenAI o1 和 DeepSeek R1,专门训练来解决复杂问题,并采用强化学习进行构建。

  这种技术最早被用于训练 AI 在围棋上达到超越人类的水平。而如今,这些模型正在攻克以往 AI 难以解决的难题。

  例如 GPT-4o 在 AIME 2024 中得分仅为9%,而几个月后发布的 o1 在同一测试中,拿下 74% 高分。

  这表明,推理模型的能力远超传统 AI 模型。

  AI 写 95% 代码,抢攻白领地盘

  随着这些工具的进步,AI 正变得越来越适用于各类白领知识型工作。

  Kevin 的同事 Ezra Klein 最近写道,ChatGPT 的 Deep Research(一种高级分析功能)所生成的报告,其质量至少能达到他合作过的研究人员的中等水平。

  在 Kevin 的工作中,他也发现了许多 AI 工具的实际用途。

  Kevin 不会用 AI 来写专栏,但会用它做很多其他事情,比如:

  • 准备采访

  • 总结研究论文

  • 开发个性化应用来帮助处理行政事务

  几年前,这些事情几乎是不可能做到的。

  而现在,Kevin 表示很难相信任何一个经常在严肃工作场景中使用 AI 的人,会得出「AI 进步已经停滞」的结论。

  如果真的想了解 AI 最近的进步有多大,去问问程序员就知道了。

  一两年前,虽然已经有 AI 编程工具,但它们的作用更多是加速人类程序员的工作,而不是取代他们。

  而如今,许多软件工程师告诉 Kevin,AI 已经承担了大部分实际编码工作,而他们的角色越来越像是监督 AI 系统。

  创业加速器 Y Combinator 的合伙人 Jared Friedman,最近表示,该机构当前孵化的初创公司中,有四分之一几乎完全依赖 AI 编写代码。Friedman 说道:

  一年前,他们还会从零开始构建产品,但现在 95% 的代码都是 AI 写的。

  宁可准备过度,也不能毫无准备

  出于认知上的谦逊,Kevin 必须承认,自己和许多人的时间预测可能是错误的。

  「也许 AI 的进步,会遇到我意想不到的瓶颈」。

  比如能源短缺,导致人工智能公司无法继续扩建数据中心;或者高性能芯片的供应受限,影响 AI 模型的训练。

  也许当前的模型架构和训练方法并不足以真正实现 AGI,还需要更多技术突破。

  但即使 AGI 比他预期的晚 10 年到来——不是 2026 年,而是 2036 年,他依然认为,人类应该从现在开始做好准备。

  无论如何,都应该要做的事情:

  • 更新能源基础设施;

  • 加强网络安全防御;

  • 加快 AI 设计药物的审批流程;

  • 制定法规以防止最严重的 AI 危害;

  • 在学校教授 AI 基础知识并将教育重点放在社交与情感发展而非即将过时的技术技能上。

  无论是否存在 AGI,这些建议都是明智之举。

  一些科技领袖担心,对 AGI 的过早担忧会导致对 AI 的过度监管。

  然而,特朗普政府已经表明其意图是加速 AI 的发展,而非减缓它。

  而且投入到下一代 AI 模型研发的资金数额高达数百亿美元,并且还在不断增加——

  因此领先的 AI 公司自愿放缓脚步的可能性似乎不大。

  与准备过度相比,更大的风险在于大多数人可能直到强大的 AI 直接冲击他们的生活——如失业、陷入骗局或受到伤害时,才意识到它的存在。

  这正是社交媒体时代发生的情况,美国在 Facebook 和 Twitter 等工具变得「大而不倒」(too big to fall)之前,没有意识到它们可能带来风险。

  这就是为什么即使我们不确定 AGI 何时到来或确切的形式是什么,他也主张现在就认真对待 AGI 的可能性。

  如果我们处于否认状态——或者仅仅是不给予足够的关注——我们就可能错过在最关键时刻塑造这项技术的机会。

  面对即将到来的巨大变革,我们需要保持警觉并积极应对,以便在未来能够更好地利用这一技术进步。

  网友热议 AGI

  网友 Tommy. T 在文章下发文称,Roose 的观察非常深刻,强 AI 确实已经近在眼前。

  尽管人们对人类能否驾驭 AGI 感到忧虑,Tommy 却认为,只要我们理性且谨慎地去面对,这个技术将能为我们带来巨大的好处。

  他表示,我们不必害怕人类对智慧的「垄断」会被 AI 打破,相反,我们应该把 AI 当作伙伴,发挥它的能力,来补充人类的创造力、同理心和道德判断力。

  AGI 可以强化我们的优势,帮助解决医疗创新、教育公平和环境可持续性等重大问题,为人类打开前所未有的发展机会。

  要做到这些,我们必须积极做好准备。

  需要大量投入于道德标准建设、公开透明的使用规则,以及确保公平普惠,让强大的 AI 技术造福全人类,而不仅仅是少数特权人群。

  我们的目标应当是与 AI 共同成长——通过清醒的乐观态度和集体的责任意识,携手共进。强 AI 时代的到来并不可怕。只要我们选择合作、创新与审慎管理,这一时代就能成为人类历史的一个转折点。

  沃顿商学院研究 AI、创新与创业公司的 Ethan Mollick 教授也发帖评论说,「我认为现在正是开始为 AGI 做准备的最佳时机。」

  他认为,越来越多来自 AI 行业外的聪明观察者,例如 kevin Roose 和 Ezra Klein,开始频繁地发出类似的警告。

  「忽视他们可能是正确的,将是一个真正的错误。」Mollick 教授说。

  参考资料:

  https://www.nytimes.com/2025/03/14/technology/why-im-feeling-the-agi.html?unlocked_article_code=1.304.TIEy.SmNhKYO4e9c7&smid=url-share

  https://x.com/kevinroose/status/1900535165874827379