AI 泡沫:光明还是灰烬? [译]

作者:

Cory Doctorow

我为 Locus Magazine 撰写的最新专栏。

一只水球在瞬间破裂,画面中央是来自斯坦利·库布里克《2001 太空漫游》中 HAL9000 的那只充满敌意的眼睛。图片修改自:Cryteria https://commons.wikimedia.org/wiki/File:HAL9000.svg(CC BY 3.0 https://creativecommons.org/licenses/by/3.0/deed.en)和 tom_bullock https://www.flickr.com/photos/tombullock/25173469495/(CC BY 2.0 https://creativecommons.org/licenses/by/2.0/)
一只水球在瞬间破裂,画面中央是来自斯坦利·库布里克《2001 太空漫游》中 HAL9000 的那只充满敌意的眼睛。图片修改自:Cryteria https://commons.wikimedia.org/wiki/File:HAL9000.svg(CC BY 3.0 https://creativecommons.org/licenses/by/3.0/deed.en)和 tom_bullock https://www.flickr.com/photos/tombullock/25173469495/(CC BY 2.0 https://creativecommons.org/licenses/by/2.0/)

我的 Locus Magazine 最新专栏探讨了一个问题:“AI 泡沫究竟是什么?”所有的经济泡沫都会带来巨大的破坏,但其中一些在瓦砾中留下了可以再利用的价值,而其他的则只剩下一片灰烬:

https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/

想象一下 21 世纪的几个泡沫事件。互联网泡沫是一场灾难,它耗尽了养老金和其他机构投资者的资金,同时也毁灭了那些被超级碗广告所迷惑的普通投资者。但互联网公司的破灭留下了一些东西:便宜的服务器、办公家具和空间。更重要的是,它培养了一代作为网络制作者的年轻人,他们离开了非技术性的学位课程,转而学习 HTML、Perl 和 Python。这促成了一个来自非技术背景的技术人员群体,这在技术史上是首次。其中许多人成为了更包容、更人性化的技术发展运动的先锋,他们在原材料成本极低的环境中创造了有趣且有用的服务和产品。

再看看加密货币泡沫。它同样通过欺诈和超级碗广告摧毁了机构和个人投资者的财富。它也吸引了非技术人员去学习一些深奥的学科。但除了一些 Rust 程序员外,加密货币留下的主要是低劣的数字艺术和糟糕的奥地利经济学。

或者对比 Worldcom 和 Enron。这两家公司的泡沫都是基于纯粹的欺诈,但 Enron 的欺诈除了留下一系列可疑的死亡事件外,几乎没有留下任何东西。而 Worldcom 的欺诈需要铺设大量至今仍在地下使用的光纤,这些光纤现在以非常低的价格被购买和使用。

AI 显然也是一个泡沫。正如我在专栏中所写,当你飞往旧金山国际机场,无论是驱车北上到旧金山还是南下到硅谷,你会看到每一个广告牌都在宣传某个“AI”初创公司,其中许多甚至没有真正使用 AI。考虑到 AI 已经成为一个无实际意义的热词,这一点非常令人惊讶。

那么,AI 泡沫将是何种模式?当它破灭时,会留下有价值的东西,还是将彻底消失?毫无疑问,有很多技术人员正在学习 Tensorflow 和 Pytorch。这些名义上的开源工具实际上分别与谷歌和 Facebook 的 AI 环境相绑定:

原文链接

如果编程环境不再存在,那么编程技能的实用性将大打折扣。活跃且大规模的 Big Tech AI 项目运行成本惊人。这些成本中有一部分是固定的,比如收集、标记和处理训练数据,但每次查询的运行成本极其高昂。这里包括庞大的服务器能源费用、几乎同等规模的冷却系统费用,以及参与其中的专业技术人员的高昂工资。

投资者资金一旦耗尽,AI 在现实世界中的实际应用能否负担得起这些运行成本?我们可以通过一个 2X2 网格来分析 AI 应用,网格的两个轴分别代表“价值”(用户愿意支付的金额)和“风险承受能力”(产品需要达到的完美程度)。

例如,向年轻的 D&D 玩家每月收取 10 美元,为他们制作展现角色与怪物战斗的史诗级插画,这种应用价值不高,且风险承受能力很高(青少年不会太在意角色插画中的小错误,比如多出的手指或眼睛中的多个瞳孔)。再比如,向发送垃圾邮件的网站每月收取 500 美元,为他们生成乏味但能满足搜索引擎算法的文本,这同样是低价值且风险承受能力高的应用(客户不在乎文本内容是否合理)。另外,向视力受损者每月收取 100 美元,提供一个应用,通过文本到语音技术描述他们用相机指向的任何东西,这是低价值且风险承受能力适中的应用(例如,把绿色衬衫描述成蓝色不是大问题,但错误地表示街道安全过马路则是严重错误)。

Morganstanley 并不是因为这些应用未来可能价值数万亿美元而关注 AI 行业。这些应用只是主要项目的附带产物,其中包括了一些极高价值的应用,如自动驾驶汽车或分析胸部 X 光片并识别肿块是否为癌症的放射学机器人。

这些是高价值的 — 但前提是它们也必须能承担风险。自动驾驶汽车的宣传点在于“解雇大部分司机,用能在关键时刻进行干预的‘环中人类 (humans in the loop)’来替代。”这就是自动驾驶汽车敢于冒险的版本,但实际上却是一场失败。追求自动驾驶汽车的过程中,已经有超过 1000 亿美元化为乌有,而且汽车离真正实现自动驾驶还遥遥无期:

https://pluralistic.net/2022/10/09/herbies-revenge/#100-billion-here-100-billion-there-pretty-soon-youre-talking-real-money

实际情况恰恰相反。Cruise 公司最近被迫退出这一领域,因为他们的一辆车撞伤了一位行人 —— 一名未曾同意参与高风险的人工智能实验的女性 —— 并将其拖行了 20 英尺穿过旧金山的街道。事后披露,Cruise 用 1.5 名高薪的技术专家取代了通常由低薪司机驾驶的出租车,这些技术专家远程监控每一辆车:

https://www.nytimes.com/2023/11/03/technology/cruise-general-motors-self-driving-cars.html

自动驾驶的宣传并不是说你的车能够纠正你自己的错误(比如你变道时盲区有人却发出警报的情况)。自动驾驶的目标不是利用自动化技术来提升人类技能,而是完全取代人类。在更安全的汽车系统上投入数千亿美元并没有商业上的合理性(尽管从人道角度来看是有必要的!)。这笔巨额投资唯一的合理化途径,是通过解雇付薪司机,并用成本更低的软件替代他们的工作。

那放射科医师呢?放射科医师时而也会出错,如果有一套计算机视觉系统犯的错误和人类不同,它们可能成为提供廉价第二意见的途径,促使人类放射科医师重新审视病例。但没有哪位 AI 投资者会指望通过出售能够减少放射科医师每天处理的 X 光数量的系统来获得回报,这样的系统只会用于提供第二意见。相反,AI 放射科医师的价值在于,解雇大多数人类放射科医师,用软件取而代之,这些软件的判断仅由人类草率复核,而这些人类因为“对自动化的过度信任”将沦为机械性地按下 OK 按钮的自动机器人:

https://pluralistic.net/2023/08/23/automation-blindness/#humans-in-the-loop

高价值 AI 应用的盈利模式在于创造“以人为附属”的自动化系统:人类成为自动化流程的附属部分,而这些流程的速度和规模远超过工作者的能力或需求:

https://pluralistic.net/2022/04/17/revenge-of-the-chickenized-reverse-centaurs/

但除非这些高价值应用本身能够容忍风险,否则它们并不适合自动化。Cruise 能够在无需旧金山居民同意的情况下,让他们成为实验性自动驾驶车辆的试验品,这得益于该行业巨额的资金流动。这些资金的一部分用于支持那种认为自动驾驶汽车迟早会来临的必然论观点,所以旧金山最好是接受自动驾驶,否则就会被历史的洪流所淹没。

一旦泡沫破裂(所有泡沫终将破灭),AI 应用将不得不根据它们真正的价值,而不是它们的承诺,来决定自己的兴衰。那些高价值但不愿承担风险的 AI 应用,在长期生存上的机会是非常小的。

AI 面临的问题是,尽管存在很多能够承受风险的应用场景,但这些场景大多价值不高;而那些价值高的应用场景则往往不愿承担风险。当 AI 需要盈利时 —— 即当投资者停止对亏损企业的资金支持时 —— 那些能承担风险的应用必须能够支撑起那些运行成本极高的服务器,这些服务器位于成本昂贵的数据中心,并需要昂贵的技术人员进行维护。

如果这些应用不能做到这点,那么维持这些服务器的商业理由便不存在,服务器及所有能承担风险的低价值应用都将随之消失。无论帮助盲人理解周围环境的社会价值有多大,无论青少年玩家有多喜爱他们的史诗级角色艺术,甚至无论诈骗分子多么渴望用 AI 生成引流的 SEO 网站,这些都不重要:

https://twitter.com/jakezward/status/1728032634037567509

所有这些应用都依赖于目前还在亏损中建设和运营的大型 AI 模型。如果这些模型长期无法盈利,私营部门最终将不再负担它们的运营成本。

目前确实存在一些较小的模型,这些模型可以独立运行在普通硬件上。即使 AI 泡沫破灭,这些模型也能继续存在,因为它们的大部分成本是初始成本,已经由创建它们的资金充裕的公司承担。当然,这些模型有其局限性,但围绕它们形成的社区已经以出乎意料的方式突破了这些限制,远超出原始制造商对它们能力的预期。这些社区将继续挑战这些限制,只要他们认为这些模型仍然有用。

这些独立的、“玩具级”模型源自于大型模型。但当 AI 泡沫破灭,私营部门不再补贴大规模模型的创建时,就不会再有更复杂的模型出现,这些模型原本可以在普通硬件上运行(联邦学习等技术可能填补制作大型模型的空白)。

那么,AI 泡沫究竟是什么样的泡沫呢?我们能从它的废墟中挽救出什么?或许那些投身于成为 Pytorch 和 Tensorflow 专家的社区会从企业手中接管这些技术,并使之普遍有用。当然,许多人将因此掌握应用统计技术的技能。

但同时,也存在大量无法挽回的损失。当大型 AI 模型被融入到生产经济体系中时,AI 将成为系统性风险的一个来源。相比于因 AI 融合而变得危险或不稳定的自动化流程,更糟的是,如果 AI 突然消失导致整个流程彻底崩溃,这种急剧的崩溃使得以前依赖 AI 的用户无法为他们的系统实现平稳过渡。

这正是我们政策制定者在讨论 AI 时的盲区。明智的政策制定者正在探讨公平性、算法偏见和欺诈等问题。而那些缺乏远见的政策制定者则沉迷于“AI 安全”(例如“聊天机器人会不会进化成超级智能,让整个人类变成回形针?”)这样的幻想之中。

https://pluralistic.net/2023/11/27/10-types-of-people/#taking-up-a-lot-of-space

但却鲜有人提出:“如果” — 当 — “AI 泡沫破裂,大量的应用一夜之间消失,我们该如何应对?”这一关键问题。