Anthropic CEO Dario 再谈 DeepSeek 和中美 AI 竞争

在上一次 Anthropic 的 CEO Dario Amodei 发表了那篇《Anthropic CEO Dario Amodei 最新对于 DeepSeek 的回应:关于 DeepSeek 与出口管制》博客之后,遭到了中美很多网友的批评,之后他又参与了一期播客访谈,更多的讨论了 DeepSeek 和中美之间的 AI 竞争。

他的观点并没有什么变化,还是认为 DeepSeek 取得这样的成绩并没有什么,但同时也承认:

"现在又多了一个竞争者。我会把这件事看作,如果说此前能够训练 AI 的大公司有 Anthropic、OpenAI、Google,也许还有 Meta 和 XAI,那么现在 DeepSeek 也进入了这个“也许”范畴。以前美国有三到五家能够做前沿或近前沿模型的公司;现在美国仍然有三到五家,中国则出现了一家。"

他还是继续呼吁对中国进行管制,担心被中国超过:

  • 如果中美 AI 实力“平分秋色”,就会形成危险的“竞速游戏(Racing Dynamics)”;

  • 美国需要保持一定的领先优势,一方面才能确保国家安全与国际地位,另一方面也能争取到宝贵的缓冲期来做 AI 风险与安全措施的研究与落地。

可能他也担心自己之前言语过激影响到公司招募到优秀的人才,所以特别澄清:

  • 中美科研人员与人才流动

  • Dario 强调自己并不反对中国籍或华裔人才参与美国的 AI 研发,称这是全球科研生态的一部分,“我们没有任何民族主义敌意”。

  • Anthropic 依旧非常愿意招收来自中国的优秀科学家和工程师,“我们对人才非常欢迎”。

另外他还直接批评了 DeepSeek 的模型在安全性上做的很糟糕:

结果发现 DeepSeek 的模型基本上是我们测试过的所有模型里最糟糕的,因为它没有任何拦截机制。所以我对 DeepSeek 的建议是,严肃对待 AI 安全问题。 你看,美国的大多数 AI 公司都已经表示,他们认为与 AI 自主性以及 AI 被滥用相关的风险至少在潜在上是非常严重和真实的。

甚至还暴露了自己的小心思:

我最希望他们能来美国,为我们或者其他公司工作; 如果不愿意,也希望他们能认真看待这些风险。

但有意思的是,他的这个观点在 X 上网友们并不认同,反而觉得是在给 DeepSeek 做广告,其实大部分人都比较烦他们家 Claude 在安全上做的有点过头了,这也不行那也不行。

下面就是翻译后视频字幕和相关文稿:

https://www.bilibili.com/video/BV1xDN7ehE6y/?spidfrom=333.1387.homepage.video_card.click

DeepSeek、出口管制与民主的未来

Dario Amodei 是 Anthropic 的 CEO。在今天的访谈中,我们讨论了……

  • 美中之间的 AI 创新竞赛是否不可避免,

  • 美国应如何根据 DeepSeek 推出的 R1 版本更新出口管制,

  • DeepSeek 愿意生成关于生物武器信息的行为,

  • 他对中国工程师以及 DeepSeek 本人的寄语,

  • 针对模型蒸馏和 AI 间谍活动的技术防御,

  • 出口管制与相信 AI 将广泛促进人类繁荣之间的紧张关系。


出口管制与 AI 的善意

Jordan Schneider: 让我们从一个简要图景开始,看看快速的 AI 进展最终可能如何对国家实力产生影响。

Dario Amodei: 几个月前,我写了一篇名为《Machines of Loving Grace》的文章,重点探讨了非常强大的 AI 能带来的许多积极应用。我在其中给出了对非常强大 AI 的定义,并用“数据中心里的天才之国”这句话来形容所有公司正在尝试构建的东西。这句话能非常生动地帮助我们理解其影响。

就好像你一下子拥有了一个拥有一千万公民的国家,而这些人在任何领域都堪比多才多艺的诺贝尔奖得主。这对国家实力意味着什么?显然,会对国家实力产生很多影响。它会极大地推动经济能力,也会极大地加速科学发展。或许还有些不幸的是,它大概也会对情报和国防产生影响——比如控制大规模无人机群或分析情报信息。总的来说,拥有大量极其聪明的实体可以在虚拟环境中控制各种事物——这将在多方面成为强大的力量源泉。

Jordan Schneider: 为什么要写一篇文章来谈论出口管制

Dario Amodei: 看到 DeepSeek 的反响,以及我身处这一行业、参与技术开发的背景,我发现大众对这一技术的实际发展轨迹其实了解不多。他们只是因为这是一个由中国公司开发的模型这个新事实才开始关注,但对之前的进展步骤并不了解,也因此产生了很多误解。他们惊呼“天哪,这成本太便宜了”,也许他们有某种对“中国制造便宜货”的刻板印象,并把它与此类比。

实际上,正如我在文章中所说,这个领域一直在出现成本下降的趋势,与此同时我们也投入了越来越多的资金去训练模型。因为这些模型非常强大且极具经济价值,所以在追求更智能的成果时,愿意投入的资金增长速度远远超过了成本下降的趋势。

时机方面,正好让 DeepSeek 得以发布了一款确实有重要创新之处的模型,但它依然落在我们之前所见 AI 成本下降曲线之内。并不是说他们用 600 万美元就做出了其他公司花数十亿美元才能做的东西。更准确地说,是过去 AI 一直在以每年大约 4 倍左右的速度降低成本——相差几倍而已,与半年前或一年前训练出的模型相比,大致也就是这个量级的变化。

因此,未来我们会看到,若干家企业将以更低的成本来生产类似水平的模型,而同时也会有多家企业(很可能包括 DeepSeek)投入更多资金去训练更强大的模型。这里的新事实是,出现了一家新的竞争者。在原本可训练前沿或近前沿模型的大公司中——Anthropic、OpenAI、Google,以及可能的 Meta、xAI——现在似乎又多了一家 DeepSeek。或许中国还会出现其他类似的公司。这是一个新的里程碑,以前没有发生过,确实让我感到担忧,但人们的反应却明显过度并且误解了这些影响。

“我认为(DeepSeek 的发布)使得出口管制政策比一周前更加具有生存攸关性。”
——摘自 Dario Amodei,《On DeepSeek and Export Controls

Jordan Schneider: 你最大的更新在于中国目前出现了一个有实力的竞争对手,且可能未来还有更多。在模型方面,人们需要对所谓的差距重新评估什么?

Dario Amodei: 我想先说明——我们早就一直在跟踪 DeepSeek,至少有一年时间。我们知道他们很可能是中国最有能力的参与者。这也影响了我对未来演化趋势的判断。对刚刚看到 DeepSeek 的人来说,此事的更新是:原本有三到五家美国公司可以做前沿或近前沿的模型,现在则变成了美国这三到五家再加上一家中国公司。至于他们能否继续开发近前沿模型,要看他们能获得多少芯片、能否获得比现在更多规模的芯片。

Jordan Schneider: AI 安全领域,包括你自己在内,多年来一直在警示竞赛动态的风险。我想听听你是如何走到现在对出口管制的看法的。

Dario Amodei: 这两件事其实不矛盾。我仍然对竞赛感到担忧,特别是如果美国和中国在此领域实力旗鼓相当、并驾齐驱的话,双方都会因为这种技术蕴含巨大的经济和军事价值而有非常强的动机去不断推进它。除非有非常强的证据表明该技术存在严重危险,否则社会会有相当的动力继续开发它。我尤其担心的是美国可能出现的立法。比如为评估并可能限制 AI 系统风险的努力,包括它们被个人滥用于生物攻击等,还有 AI 系统本身可能带来的自主风险。过去一年里,美国有过很多类似的立法提案。有人反对这些立法的一个常见理由是:
“如果我们自己放慢脚步,中国就会迎头赶上并把我们甩在后面。” 这其实是一个完全正确的论点。

如果美中两国并驾齐驱,就没有什么可以阻止双方不断开发这项技术,因为双方都想获得经济和军事优势,同时也都担心对方会先获得这种优势。这就会让人进退两难:如果我们想真正放慢脚步并认真研究风险,前提就必须是我们保持领先——否则就太危险了。我担心的是,在这样的动态下,美国也可能失去对自己研发的 AI 系统进行立法或监管的意愿。人们会说,“算了,如果我们这样做,中国就会超过我们。”

那么,怎么在保证领先的同时,又能谨慎地开发这项技术呢?我的猜测是,通过像出口管制这样的手段可以帮助缓解一些压力。因为出口管制可以在我们和中国之间建立一段差距。假设我们领先两年,也许我们可以利用其中的六个月来确保我们自己开发的技术是安全的。换句话说,我们依然领先,但能利用这段时间让自己开发的东西更加安全。若双方实力完全接近,我们就得担心对方开发的东西不安全,同时也担心对方可能借助该技术在经济和军事上获得优势。这会让我们进退维艰。

事实上,这也并不是什么新的想法,只是我第一次公开明确说。长久以来,我都认为保持美国在中国之前是非常重要的,因为我不认为中国或其他威权国家会善用强大的 AI 技术;同时,如果我们不保持领先,就会出现竞争加剧的动态。出口管制的好处在于,它在一定程度上拓展了可行空间。想要保持领先有两种方式:要么自己加速发展,要么想办法延缓对手。我预计确实需要一定程度的加速,但这样做也有代价——加速越多,给我们研究安全的时间就越少。而出口管制或许能部分化解这一矛盾。
当然,这依然非常复杂,想兼顾两者并不容易。

Jordan Schneider: 继续探讨一下,如果我们想与中国达成某种“向上竞争”的逻辑,以及与西方同行间的“向上竞争”逻辑,该怎么做呢?

Dario Amodei: 与西方同行之间的好处在于有共同的协调机制,比如大家都在同一个法律体系下运作。如果有人通过立法来强制要求采取安全措施,那么 OpenAI、Meta、Google、xAI 包括我们 Anthropic 都得遵守。这样我们就可以在自己做足安全措施的同时,确保别人也在这样做。

如果做出一些自愿的安全举措,比如 Anthropic 一直在做的这些,哪怕没有立法,立法的威胁也会让其他玩家有动力跟进。因为如果有一家企业特别负责任,而其他企业表现得不负责任,监管机构就会更有动力去盯住那些不负责任的企业。

但在美中之间,这种机制并不存在。毕竟在国际层面是霍布斯式的无政府状态。我确实认为,中美之间可能在部分领域进行合作,但我个人比较悲观。不过,我也同意我们应该尝试。在某种非常有力的证据出现的情况下——比如证明 AI 系统对人类文明有紧迫的实质性威胁,或许就能改变格局。现在还没有这样的铁证。有些安全领域的专家认为,他们的推理已经充分证明了危机即将到来,但我认为还不足以说服两个竞争的大国同时放弃或暂停这项技术以进行安全研究。
随着模型越来越强大,我们也会逐渐看清楚它们究竟有没有重大全球风险。我相信未来一两年里我们会了解更多。如果真的出现难以忽视的证据证明这些模型对整个人类社会构成巨大威胁,或许就会有所转变。

就我所知,美国政府已经在尝试就 AI 安全等相关议题与中国展开对话,但从公开报道看,对方兴趣似乎不大。我希望这种状况能有所改变,也希望更多想法能传递到中国、为大家所用。我们在努力让更多人了解 AI 安全知识,比如可解释性研究和宪法式 AI(Constitutional AI)等,我们希望所有地方,包括中国在内,都能采用更安全的 AI 研究方法。但我们也要现实地认识到国际关系的现状。两大国制度不同、存在长期竞争和对立。最可能的情形就是大家都想尽快掌握这项技术。这是默认的走向。

Jordan Schneider: 关于美国应该卖给中国哪些芯片、又不应该卖哪些芯片,你怎么看?

Dario Amodei: 首先,美国的出口管制从来都不是为了阻止 DeepSeek 或任何一家中国公司获得几万颗芯片的量级。我们要合理地预期到一定程度的走私现象——DeepSeek 可能通过某种渠道绕过了管制,最终拿到了差不多 5 万颗芯片。

具体说到哪种芯片,该公司据传使用了三种:H100、H800 和 H20。我参考的是 SemiAnalysis 的 Dylan Patel 的报告,DeepSeek 本身并没有正式回应;不过在半导体领域,SemiAnalysis 通常消息比较可靠。

据称他们有大约一万颗 H100,也就是美国公司在本土普遍使用的标准芯片。这些芯片必然是通过某种灰色方式流入中国,或者通过第三国的代理进入中国的。

H800 比较有意思,这是英伟达在 2022 年第一轮出口管制后推出的,用来减少芯片之间通信带宽,从而避开出口管制的一些规定。于是有一批 H800 被运到了中国,但在 2023 年时这个漏洞被堵上了。其实我们很早就注意到,有办法在训练过程中绕过通信带宽受限的问题。2023 年最新的出口管制方案更加严谨,可防止通过削减通信带宽来规避管制。大概率这批 H800 就是 2022 年禁令与 2023 年禁令之间这段空当流向了中国。

H20 不适合训练,所以不太可能用于生成基础的 Base V3 模型(也就是我在博文中提到的第一阶段)。第二阶段,即 R1 模型,在第一阶段模型的基础上做了后续训练,并在社交媒体上广为传播;这里面既包含训练也包含推理(inference)。H20 适合推理但不适合训练。有可能他们在第二阶段用 H20 做了一些辅助工作,虽然它无法用来完成第一阶段的训练。

因为在新的推理模型范式中,推理本身也越来越重要。我建议也应当禁止向中国出口 H20,并同时关注如何让这些禁令覆盖面更全面。当然,我们也要留意避免对其他经济活动造成过度影响。比如没有理由禁止对华出口游戏机,这对主要针对高性能计算的管控来说就太宽泛了。我们需要谨慎设计,但总之 H20 这种芯片也应在管控之列。

Jordan Schneider: 英伟达的说法是:我们对华出口越少,中国客户对华为之类国产厂商的需求就越多,他们的市场就越大。也就是说,更严的管控可能会催生华为迅速追赶。关于中国国内制造芯片的能力,你如何看待?这对半导体制造设备出口管制意味着什么?

Dario Amodei: 在 10 到 15 年的长期范围内,他们可能会追赶上来,但在此之前,供应链卡得很深。正如你所说,我们也对半导体制造设备和设备维修进行了管控,要想造出与英伟达 B100 或我们所用的 Trainium、TPU 等同等性能的芯片不是一件容易的事。软件生态也存在差距,但硬件差距更致命。

我的判断是,华为芯片在短期内无法达到美国芯片的性能水平。就像我在《Machines of Loving Grace》和关于出口管制的文章里说的,关键的博弈期主要会在 2026、2027,最晚到 2030 年。我们的政策就应该瞄准这个时间段。在 AI 世界里,10 到 15 年就像一个永恒的概念,太久了。对我们当下的竞争而言,几乎没那么重要。

Jordan Schneider: 拜登政府的政策基本是允许中国企业在美国以外的西方云服务商那里使用算力。你对此怎么看?

Dario Amodei: 他们最后其实出了一个“扩散规则(diffusion rule)”,防止中国壳公司在境外二级国家租用算力。也许你提到的是别的事。

Jordan Schneider: 比如甲骨文是字节跳动最大的云供应商,他们都在海外做云计算。

Dario Amodei: 扩散规则可以阻止或限制这些面向中国壳公司的大规模使用。在美国本土的话,这个问题比直接拿到实体芯片要小一些,毕竟你可以随时切断云上对芯片的访问权,而一旦实体芯片被拿到手,就可以反复训练不同的模型了。对于芯片,本身就涉及数以百亿美元计的经济行为,乃至接近千亿美元的规模。云服务当然也得管,但我认为跟芯片和制造设备相比,紧迫性稍弱一些。最终,我们还是要把重点放在防止大规模获取方面。

Jordan Schneider: 你怎么看 DeepSeek 把他们的模型开源发布?

Dario Amodei: DeepSeek 发布的内容有好几个要素:第一是他们公开了模型权重,第二是他们的模型在成本降低曲线上占据一个新的节点,但更重要的是,他们是第一家能够到达这一节点的中国公司。

在我写的那篇关于出口管制的博文中,多数观点与他们是否开源或只提供 API 几乎没有区别。核心还是他们做出了一个强大的模型,这是中国公司第一次做到。未来他们能否训练更大规模的模型要看他们能否获得数百万颗芯片。而能不能获取这些大规模芯片将由出口管制决定。

从商业角度而言,谁能做出强大模型才是 80%-90% 的竞争力来源,“开源权重”与否并不是最主要因素。模型源码和“开源”概念并不相同,这里只是发布了一堆数字(即模型权重),而非源码。
另外,最初一些公开权重的公司,最终也会走向商业化,需要赚钱,所以常常不再继续开源。从市场实际需求看,开放权重本身远没有模型性能重要。对于一些开发者来说,开放权重在使用上也许有一点小便利,但决定性的还是模型质量和推理效率。

我在 2023 年的参议院听证会证词中就说过——开源或闭源在一定规模以下差异不大,真正重要的是模型多么强大。

Jordan Schneider: 但你们是靠 API 调用收费的,对吗?

Dario Amodei: 模型不管是开放还是闭源,最终都需要在云上运行,所以都会涉及云服务的成本。至于在哪里有差异,主要还是体现在推理效率,或者说推理过程成本的高低。而训练成本也千差万别。各家公司都在互相竞争谁有更高效的推理技术,每过几周我们可能就能把推理成本降低 20% 之类的……
因此,模型强度和高效部署才是大头。“是否开放权重”与这些问题比起来,反而显得相对次要。

Image

图片来自 Latent Space 团队

Jordan Schneider: 相关问题:你觉得政府什么时候会开始对模型被开源感到不安?

Dario Amodei: 我从商业角度看,“开放”和“闭源”被过度炒作了;从安全角度而言也是如此。最重要的是模型多么强。如果一个模型非常强,我不希望它被中国偷走,不管是通过窃取模型还是把它直接开源公开。如果模型不强,就没那么严重,不管开源还是闭源都不重要。


防范间谍与跨国协作

Jordan Schneider: 抛开蒸馏不谈,你曾在 Dwarkesh 的播客 中提到,如果某个国家把它当作头号目标来窃取模型权重,他们就能做到。若我们按照你的时间表发展,AI 成为地球上最重要的事情之一,并吸引北京和其他国家级行为体的注意,这对领先实验室与其他竞争者之间的差距会产生什么影响?

Dario Amodei: 我认为能维持的最大差距也许就是两年左右。但这两年的差距其实已经能带来巨大的优势——它能给我们争取一些缓冲期,用来研究如何让 AI 系统更加安全。想把这个领先期拉长到两年以上,我觉得不太现实。我们可以把目标定在争取两年的领先期,并尽量确保这两年里模型不被窃取。

如果一个国家级对手想在这两年里偷走最强大的模型,确实是个艰巨挑战,但并非完全不可能。我们可以依靠两大力量:一是美国政府,二是模型本身。随着模型在各个方面变得越来越强,它在网络安全上的自我防护能力也会提升。其次是美国的反情报力量,帮助阻止最关键的技术被盗。

我们在 Anthropic 的“负责任规模化政策(RSP)”里就考虑到了这些情况。它分为不同级别。目前我们处于 ASL2 阶段,安全性比较严格,但也算是科技公司正常水平。下一步的 ASL3 阶段就要防范强大的非国家级对手,再往后的 ASL4 和 ASL5 就要防范国家级对手的偷窃。这是非常高的安全门槛,当模型能力到达某些指标时,我们就得升级到那些级别。我们设计 RSP 的时候,就已经考虑到美中竞争和实验室安全问题。

Anthropic’s Responsible Scaling Policy

资料来源

Jordan Schneider: 美国政府自己都没能防住中国监听商务部长的电子邮件,大规模监听几乎无孔不入,所以想要依赖网络安全来维系两年的技术差距似乎并不可靠。或者换个角度问:假设权重被偷走了,但若没有模型开发团队掌握的经验和诀窍,DeepSeek 或 ByteDance 能否充分利用到下一代模型所带来的潜力?

Dario Amodei: 直接运行被偷来的某个版本不算太难,但如果想用它来训练下一版模型就难多了,因为要适配完全不同的硬件集群和环境。当然,你可以想象一些变通做法……

Jordan Schneider: 我们一直在聊算力和模型,但模型毕竟是人造的,需要人来创造。每次我去 NeurIPS 大会,看海报区有那么多人讲普通话,都让我印象深刻。如果他们听到你今天的观点,他们可能会想:“我为什么要为这个家伙工作?” 你会对这些在海外学习、来自中国大陆的学生说些什么?

Dario Amodei: 我想非常明确地说明一点——应该多谈谈。我们谈到“中国”时,指的并不是某个民族或某些个人,而是一个威权政府系统。就我们自己而言,乃至美国其他 AI 公司,我相信都非常欢迎来自世界各地的优秀研究人员和工程师。我们和他们本质上在同一个研究共同体里。若要真正实现更深层的合作,研究者与研究者之间的“双轨”对话可能是更可行的途径之一。
所以我们对优秀人才完全敞开大门,不管他们来自哪里。我们唯一的担心是威权体系如何使用这项技术。中国过去十年完全可以往更民主的方向走,可惜现实并非如此。如果中国在政治体制上更加自由,我对这件事的态度可能会完全不同。这与对某个国家或其民众没有任何敌意无关,而是忧虑这类国家如何对待和运用强大的 AI。

Jordan Schneider: 好吧,那这样在中国确实不太可能火了……不过回到你的主题,你有没有想对 DeepSeek 说的话?

Dario Amodei: 我看到他们是很有才华的工程团队。想对他们说的主要是:请认真对待 AI 系统自主性可能带来的风险。我们自己对 DeepSeek 的模型做了很多评估,特别是国家安全方面的评测,比如看它是否能提供在谷歌或教科书上很难找到的生物武器信息。DeepSeek 的模型在这方面的过滤几乎是最差的,完全没有任何阻拦机制。

我并不觉得今天的模型已经产生了实质威胁,但它们都在快速升级,也许再过今年或明年,这类危险就会变得更真实。我给 DeepSeek 的建议是,要认真看待 AI 风险。美国的大部分 AI 公司都已经公开承认,AI 自主能力的风险以及 AI 被不法分子滥用的风险都值得关注。我的第一希望是 DeepSeek 的技术人员可以来美国,为我们或其他公司工作;如果他们不来,那至少也应该重视这些安全隐患。

Jordan Schneider: 现在主流的论调是,AI 会帮助威权政府更好地维稳,可能让中共统治千年。有可能出现另一种场景吗?AI(也许特别是开源 AI)会带来某种“民主化”力量?

Dario Amodei: 我觉得是可能的,我在《Machines of Loving Grace》里也提到了一些。不过“开源”与“民主化”并不直接相关。假设中国开发了强大的 AI 并公开了权重,但他们自己掌握了全球最大的集群,以及最完整的模型微调能力。那么如果我是一个身处威权体制的公民,手里有一段权重文件就能对抗政府吗?好像没那么容易。有些人会把权重“开放”与“让所有人都能自由使用”联系起来,但实际上这只是模型权重,不是社交媒体平台之类的载体。就好比你拿到 TikTok 或 Twitter 的源代码,对其社会影响的本质也改变不大。

我更看重的问题是如何使用 AI,不管是闭源还是开源。《Machines of Loving Grace》里提到的“AI 如何强化民主”更多是从司法和公共行政角度切入。AI 可能让司法体系更加公正、统一,避免许多人为的主观差异。当然也有很多人会担心算法会带来新的偏见。这里的关键是正确使用它,让它真正帮助法治。此外也可能帮助我们实现更好的民主协商决策。我们与名为 Polis 的组织有合作,他们使用 AI 帮助聚合公众观点,寻找共同点。这对民主政治是有益的,因为它能缓和对立,让更多人找到共识。

而且提高公共科学和医疗健康水平,也可能间接地提高民主社会内部的讨论质量。现在对 AI 的安全顾虑并不少,但如果使用得当,AI 可以帮助我们更有智慧地面对未来的挑战。

“……现代 AI 的具体洞见及其整体气质大概率可以被应用于系统神经科学的诸多问题,包括也许能揭示导致精神障碍等复杂疾病的真实因素和动态过程……”
——Dario Amodei,《Machines of Loving Grace

Jordan Schneider: 你写了两篇博文,它们在某种程度上似乎是紧张的。一方面你希望所有人都从 AI 中获益,但另一方面,全球有六分之一的人口生活在中国,你又同时希望阻止这个国家获取最强大的 AI。你如何看待这之间的张力?

Dario Amodei: 其实它们是一致的。在《Machines of Loving Grace》的“AI 与民主”部分,我就提到要封锁供应链,包括出口管制、实验室安全、对芯片制造设备的控制等。这并不自相矛盾。

首先,很可能给全世界(包括中国及其他威权国家)带来 AI 的经济利益,同时不向他们提供军用或双用能力。因为强大的 AI 是通用双用技术,如果你把整套模型交给对方,肯定就无法区分军事用途和民用用途了。但如果只是在云端提供 API 来访问,就可以控制哪些请求被允许、哪些请求被拒绝。比如可以允许他们用来研发抗癌药物或提升能源效率,但如果有人想用它去研究氢弹或者卫星定点打击,就可以阻断。

Constitutional Classifiers

资料来源

长期来看,我们确实希望 AI 的所有好处都能惠及全世界,但也得建立某种国际治理模式或稳定平衡。因为我说过,美国最多也只能保持两年左右的技术领先。我希望通过美国主导的方式来设计这样一套治理结构。只有在我们拥有更多主动权的情况下,才能谈判出更安全、更可持续的发展路径;若我们在劣势地位上,就很难达成令人满意的结果。美国如果有足够的领先优势,就能相对“慷慨”地与世界共享 AI 的红利,当然前提是要确保安全使用。

Jordan Schneider: 如果你将来不搞 AI 了,我看你很适合写 Substack……非常感谢你做客 ChinaTalk!