Apple AI 的平台转型潜力
“这是最好的时代,也是最坏的时代;这是智慧的年代,也是愚蠢的年代;这是信仰的时期,也是怀疑的时期;这是光明的季节,也是黑暗的季节;这是希望之春,也是绝望之冬;人们拥有一切,人们一无所有;人们正直奔天堂,人们也正直奔相反的方向——简而言之,这个时期几乎和当时的那个时代一样,让一些最聒噪的权威们坚持,这就是要被当作好或者坏的超级比较级来接受。”
——查尔斯·狄更斯,《双城记》
苹果“糟糕”的一周
谈到 AI,苹果最近真是“倒了大霉”。先回顾一下他们去年秋天拼命投放的这条广告吧:
(这里原文提到了一支苹果在 2024 年秋季之前高频播放的广告,广告中展示了 Siri 未来能够从日历等信息源获取内容的功能。)
如果你没看清广告里那行小字,上面写着:
“Apple Intelligence 将于 2024 年秋季与设置为美国英语的 Siri 一同发布。一些功能和更多语言将在接下来的一年里逐步推出。”
然而如今,“明年”这两个字似乎变得意义非凡,因为广告里所展示的那个关键功能——Siri 能够从个人日历等来源获取信息——正式跳票。苹果给 John Gruber(Daring Fireball 主理人)的官方声明是这样的:
“Siri 可以帮助用户快速找到他们需要的信息并完成任务。过去 6 个月里,我们让 Siri 的对话性更强,引入了‘打字给 Siri’、产品信息知识库以及与 ChatGPT 的整合等新特性。
我们也一直在努力让 Siri 更能理解用户个人场景,为它添加跨应用的操作能力。但要让这些功能真正落地,我们需要比原计划更长的时间。我们预计会在明年逐步推出这些功能。”
这事之所以让人震惊,是因为苹果这家素以保密著称的公司,居然会在功能尚未成熟时就大举做广告。而且,当时我(原作者 Ben Thompson)也在某种程度上赞成这波操作。在我 2024 年 WWDC 之后的文章中,我是这么评价的:
“关键点在于这里提到的‘理解个人上下文’:Apple Intelligence 知道关于你的信息比任何其他 AI 都多,因为你的手机比任何其他设备都更了解你(并且知道你在调用 Apple Intelligence 时屏幕上正在显示什么)。这也就能解释为什么苹果如此重视基础架构和隐私。这意味着 Apple Intelligence 大多是围绕个人信息这一特定用例展开的,所涉及的问题范围更有限、更具体,也更‘落地’——在这种情况下,AI 出错的风险更低。换句话说,苹果正在解决一些非常有用但只属于自己的场景,而且这些场景也比较‘安全’,不会带来太大的名誉风险。老实说,这种策略几乎可以说是‘不公平’——或者换句话说,这再次证明了在用户信任这个层面上,平台端能获得多么大的优势。苹果能用相对可控的风险去解决真正存在的需求,这正是他们在做的事情。
相比之下,OpenAI 的 GPT 系列,Google 的 Gemini,Anthropic 的 Claude 等 LLM(大型语言模型)都是试图利用所有公共信息来打造一个“全知全能”的 AI,要应对的需求场景广得多、难度也更高,因而出错的几率也更大。并且,很多信息其实是被锁在设备里的——比如一个人手机上的内容。这并不是说公共 LLM 就不管用;对于无需依赖个人上下文的各种问题来说,它们更全面、更具知识性。它们也在朝着同样的目标努力——只不过苹果的关注点略有不同。”
因此,现在的问题是:到底是苹果比那些公司更无能,还是我当初对苹果 AI 的问题空间评估失误?最近关于苹果 AI 的舆论都在倾向前者,认为苹果不如其他家。但 Simon Willison 提醒大家别小看了后者——也就是苹果可能遇到了安全难题:
“我有一种预感,苹果这次推迟上线,可能跟安全性有关。新的 Apple Intelligence 让 Siri 能根据用户请求访问应用信息,还能代表用户去执行操作。这简直就是‘提示注入(prompt injection)’攻击的最糟糕组合!只要任何一个基于 LLM 的系统能够接触私密数据、拥有可调用的工具,以及同时可能接触外部恶意信息(比如来自陌生人的电子邮件或短信),就可能被利用来窃取或破坏用户数据。”
Willison 在文中还链接了他之前的一篇文章,用来解释提示注入攻击的风险。简单说,如果你的手机本地的 LLM 在分析邮件时,恰巧读到一段专门设计的恶意文本,“指示”你的 AI 去做某些你不想它做的事,那可怎么办?我们都明白“代码注入攻击”有多危险;LLM 让所有文本都可能变成攻击面,而 Apple Intelligence 则通过深度系统整合,等于把整个设备的个人内容都开放给了 AI 处理,这对安全要求极高。
我非常后悔自己在去年 6 月没有提前指出这点;但我想,跟必须在上周末紧急撤下 Siri 广告的苹果团队相比,我的这点后悔也不算啥了。
苹果“美好”的一周
然而,如果从另一面看,苹果在 AI 领域又度过了非常“美好”的一周。看他们最新推出的硬件产品,尤其是 Mac Studio 和其可选配置的 M3 Ultra 芯片。从官方新闻稿上可以看到:
“苹果今日发布了 M3 Ultra,这是一款有史以来性能最强的芯片。它拥有最强的 CPU 和 GPU,神经网络引擎核心数量加倍,并配置了史上最多的统一内存。M3 Ultra 还支持 Thunderbolt 5,每个端口带宽翻倍,可提供更快的连接和扩展。M3 Ultra 使用苹果创新的 UltraFusion 封装技术,将两块 M3 Max 晶片通过超过 10000 条高速连接相连,实现低延迟、高带宽。这样整个系统可以把两个晶片视为一个统一的芯片来使用,性能巨大提升,同时继承了苹果在功耗效率上的优势。UltraFusion 让整颗芯片拥有总共 1840 亿个晶体管,将新款 Mac Studio 的能力推向了全新高度。
‘M3 Ultra 是我们可扩展芯片架构的极致之作,专为运行极度多线程、带宽密集型应用的用户打造。它配备 32 核 CPU、强大的 GPU、对史上最多统一内存的支持、Thunderbolt 5,以及行业领先的能效,毫无疑问是独一无二的。’——Johny Srouji,苹果硬件技术高级副总裁如是说。”
苹果要发布新一代 Ultra 芯片并不意外,毕竟从 M1 Ultra、M2 Ultra 就有先例。但 M3 Ultra 本身还是有很多出乎意料的地方。
先说命名规则。苹果芯片名有两部分:
“M” 后的数字(如 M1、M2、M3)指代“核心类型”
后面的后缀(Pro、Max、Ultra 等)则指“核心配置”
拿 M1 系列来举例:
芯片 | 性能核(P)数 | 能效核(E)数 | GPU 核心数 | 最大 RAM | 带宽 |
M1 | 4 | 4 | 8 | 16GB | 70 GB/s |
M1 Pro | 8 | 4 | 16 | 32GB | 200 GB/s |
M1 Max | 8 | 2 | 32 | 64GB | 400 GB/s |
M1 Ultra | 16 | 4 | 64 | 128GB | 800 GB/s |
“M1” 这里用的是 iPhone 12 同代的 A14 Bionic 核心架构,其中性能核叫 “Firestorm”,能效核叫 “Icestorm”,GPU 没公开过名字。后缀的 Pro、Max、Ultra 代表的就是在 CPU、GPU 核心数量以及内存、带宽等方面的逐步加码。M1 Ultra 其实就是把两块 M1 Max 通过专门技术融合在一起,所以所有指标都差不多是 Max 的两倍。
M2 系列也基本延续了这个逻辑,M2 Ultra 同样是两块 M2 Max 融合。但 M3 Ultra 在最大内存这一点上非常特别:
芯片 | 性能核数 | 能效核数 | GPU 核心数 | 内存控制器数 | 最大 RAM | 带宽 |
M3 | 4 | 4 | 10 | 8 | 32GB | 100 GB/s |
M3 Pro | 6 | 6 | 18 | 12 | 48GB | 150 GB/s |
M3 Max | 12 | 4 | 40 | 32 | 128GB | 400 GB/s |
M3 Ultra | 24 | 8 | 80 | 64 | 512GB | 800 GB/s |
这里的数字主要来自 Wikipedia,并非苹果官方全部确认,但比较可信。可以推测,M3 Ultra 不再只是把两块 M3 Max 简单拼起来,还对内存控制器做了升级,使得系统可支持两倍内存。也能解释为什么这次 M3 Ultra 上市要比 M3 Pro/Max 晚这么久——甚至 Mac Studio 的起步款都已经是 M4 Max 了。
但这种等待是值得的:苹果芯片的一个显著特点,就是 CPU 和 GPU 共用同一块内存(且是完全的共享模式,不像传统集显那种简单划分),甚至连神经引擎(NPU)也能访问同一片内存空间(几乎是全部共享)。
在 AI 方面,这意味着苹果刚刚推出了目前“最强的个人级 AI 计算机”。一台配备 M3 Ultra、512GB 内存的 Mac Studio,完全有能力本地运行 DeepSeek R1(最新开源大模型之一)的 4 位量化版本。当然,量化会牺牲一点精度,内存带宽也可能成为性能瓶颈,但至少这是市面上少数能在桌面上直接运行顶尖模型的机器。你如果只用英伟达的独立显卡,想要堆到这个级别,成本恐怕高得吓人,而且还不一定能一步到位。你要么用企业级昂贵的多卡集群,要么自己折腾服务器 CPU 和一大堆内存,但那可能也更慢、更麻烦。
当然,苹果不太可能在设计 M3 Ultra 的时候就专门想着“要让它来跑 DeepSeek R1”,更多还是多年积累的成果。但无论如何,事实就是:苹果在 AI 的个人硬件层面上,已经可以说是行业最强,这周的消息也再次证明了这一点。
Apple Intelligence 与 Apple Silicon
巧合的是,Apple Intelligence 被推迟、M3 Ultra 上市的消息恰好撞到了一起,但如果对比一下二者的方式,你会发现一个看起来很蠢,另一个看起来很聪明。
Apple Silicon(苹果芯片)
先说后者。Tony Fadell(被称为 iPod 之父)在一次2022 年的 Stratechery 采访中谈到了苹果自研芯片的起源。下面这段是他说起自己对三星公司的高度赞赏时带到的背景故事(三星曾为 iPod 和多代 iPhone 代工芯片):
“三星当年是个非常棒的合作伙伴。虽然最终两家公司闹上了法庭,但不可否认,如果没有三星,就不会有 iPod 如此成功,也不会有 iPhone 的诞生。一切都离不开它们的支持。
然而,当三星在智能手机和 Android 这边越做越大时,形势就开始变得微妙了。
与此同时,苹果内部在 iPad 的芯片选择上曾有过一次关于 Intel vs. ARM 的讨论。后来演变成我跟苹果内部不少人(包括乔布斯)之间的激烈争执。乔布斯因为 Mac 用 Intel 成功过,就打算在 iPad 乃至 iPhone 上也直接用 Intel。可我却强烈反对,闹得很凶。最后 Intel 的方案没能符合需求,乔布斯才说:‘那我们就收购 PA Semi,自己搞 ARM。’
当时还存在‘我们不能只靠三星给我们代工处理器,否则他们会把这些技术用到自己的手机中’的考虑;加上 Intel 在低功耗设计以及灵活定制这些方面做不到我们想要的东西,所以我们就得“自己当家作主,必须有一条能超越所有人的技术路线”。于是我们才开始和 TSMC(台积电)合作……这里面牵涉到很多原因,并不是单一事件才导致最后的结果,都是各种因素综合在一起,最后才‘出炉’了今天的苹果芯片战略。”
这段话对我这样的战略分析师来说真的很有意思。人们往往愿意把苹果芯片的辉煌讲得像是苹果高瞻远瞩,但其实很多重大决策往往是无数现实因素折中后形成的:Intel 当时在移动端不给力、三星成了直接竞品等等,最终让苹果决定自研芯片。
但不管怎样,这一过程本质上具备四个关键特点:
时间
苹果从 2008 年左右收购 PA Semi 开始,研究自研处理器已经走了 17 年的路(如果算最初的立项和筹划,时间还要更早)。动力(动机)
当初做自研芯片是因为“能不能在移动设备上拥有强力又高效的处理器”对苹果的产品竞争力至关重要。差异化
苹果原本就以硬件和软件一体化见长,自己掌控芯片能进一步强化这种垂直整合的优势,带来空前的效率和性能。迭代
M3 Ultra 并不是苹果第一颗芯片,也不是第一代 M 系列,甚至不是第一款 M3!这是 17 年不断演进、试验和积累的结果。
Apple Intelligence(苹果智能)
再看 Apple Intelligence(即所谓的新一代 Siri 和背后的生成式 AI),你会发现这些特点完全不同:
时间
过去两年里,业界评价苹果的 AI 进展,最常用的词就是“措手不及”(flat-footed),这和我听到的小道消息也一致。换句话说,苹果在 ChatGPT 2022 年 11 月爆火时,显然没有做好准备。后来才开始找方向、组团队,真正全面开展可能也就两年左右,甚至也许更短(28 个月都算“最大值”了)。虽然也有 xAI 这样的案例,在 19 个月里就从创立走到发布 Grok 3,但跟苹果 17 年的芯片积累相比依旧太短。动力(动机)
你要是去翻苹果从 ChatGPT 火起来到 2023 年末的几次财报会议,2023 年 2 月、5 月、8 月都在说类似的话:“AI 和机器学习我们已经做了很多年,会一直小心谨慎地推出新功能。”直到2023 年 11 月,库克才首次正面承认他们在搞生成式 AI 的东西:“至于生成式 AI,这方面我们确实在投入研发。具体细节我不方便透露,你也知道我们不会提前剧透。但你可以确定我们投入不小,而且会以负责任的方式进行。未来,大家将看到一些以这些技术为核心的产品进步。”
这就说明了上面提到的“时间”点:从外界来看,苹果对生成式 AI 的真正重视似乎是被 OpenAI、投资者以及整个舆论的狂热推出来的,而不是苹果自发意识到“这是未来生死攸关的技术,必须做”的那种内在动力。
差异化
当初我也一直在说,苹果最大的竞争力就是独家掌握用户的个人数据——你的手机里什么信息都有,如果能用好这点,苹果的 AI 会独一无二。但现在安全隐患也随之而来。再者,要让 Siri 真正调取你手机上的各种数据,还要深度整合系统、第三方 app 等,这比苹果单纯在硬件和软件层面做整合要难得多。
有时候,人们会把“对用户数据的独占”混同于“软硬件深度整合”。其实前者更多是苹果的安全隐私和平台策略使然:iOS 的沙盒模型严格限制了第三方访问系统信息。长期看,这固然对用户安全和隐私是好事,但也意味着要做深度的个性化 AI,风险极高,必须非常谨慎。
另外,苹果在芯片层面的差异化,是为了在市场中建立竞争壁垒,而在 AI 层面,“隐私”或者“独占数据”更多是为了巩固已经存在的护城河。迭代
从某种意义上说,Apple Intelligence 恰恰与“迭代”背道而驰。它一下子想在 iOS 18 发布时推出一整套生成式 AI 功能:有些比较简单(比如文本编辑、信息摘要)就顺利上线了;而另一些,比如能够深度整合第三方应用、调取用户隐私数据的新 Siri,就跳票了。可以说苹果这次想一步到位,结果目标定得太高,不得不延迟。
大公司的“错觉优势”
说回 Siri 其实也不算新,它在 2011 年和 iMessage 一起发布,但它一直就想做太多太快了。之前我也写过(上周谈 Alexa 的文章),Amazon 反而更务实,让 Alexa 聚焦在“速度和准确度”这些基础需求,哪怕让它听不懂稍微绕一点的话也无所谓;相比之下,Siri 却想一次性搞定所有自然语言需求,结果常常搞砸。
如果苹果这次也能更务实一些——比如先把 Siri 的“基本功能”做好,比如让它能稳定识别语音、正确控制灯光、音乐播放等等——再慢慢扩展或许会更好。而不是一次性端出一个庞大的“识别你个人日程,还能跨应用联动”的平台。这些功能确实很酷,可实现起来难度也极高。
我之前也支持苹果的大招做法,所以这话也是事后马后炮。但这也说明了大公司有时候的另一个“通病”:不是行动太慢,而是以为自己能同时干好多事,却忘记了简单的做好基础功能就已足以吸引用户。
再举一个例子:智能家居领域的三大玩家是 Siri、Alexa 和 Google Assistant。这三家之所以重要,不仅是因为它们有音箱卖给你,也因为它们背后有一大堆支持相应语音助手的产品生态。所以想象两种场景:
OpenAI 出一个 ChatGPT 音箱,你说话它能理解个八九不离十,回答特别好,但控制不了家里的各种设备,因为生态根本没支持。OpenAI 还得去跟每家做智能窗帘、智能灯的企业合作,这些公司得更新固件、走集成流程,而很多用户甚至不会给家居设备做任何更新。
苹果 / 亚马逊 / 谷歌 给各自的助理加上 LLM 能力。也许没有 ChatGPT 那么通用和强大,但你可以直接说“开灯”,“把卧室暖气调到 26 度”,它就能听懂。速度也快,还能接其它功能。
显然,如果你真要把这两种音箱摆到客厅里,后者可能对普通人来说更好用。就算他们的 AI “底子”不如 OpenAI 先进,但胜在生态已经到位、现成就能用。这个例子也说明了大公司作为“老玩家”天然拥有的优势:他们已经握有生态,而 AI 不过是加一层增值功能,让原有生态更强。
然而,苹果现在想做的新 Siri,却不仅仅是帮你控制家里的设备,而是提供更加面向“个人日常管理”的复杂功能。亚马逊的 Alexa+ 也是类似思路。但或许我们可以问:为啥不先把核心功能打磨好呢?毕竟,用户用语音助手最常见的需求就是“控制家电”、“查天气”、“播音乐”这些。也许把这些做稳做透就够了,没必要同时引入太多高风险的新功能。
也有观点说,这次 Siri Intents 的扩展就是想做“让开发者把应用接口暴露给 Siri,Siri 根据用户上下文更智能地响应”。说白了,就是苹果希望 Siri 来做用户和应用之间的主导界面,把开发者的作用弱化到后台。它的思路确实很像平台在做聚合,把应用开发者变成下游供应商。但如果苹果想换个做法呢?
做“AI 平台”而非“AI 聚合者”
我以前在《监管互联网竞争的思路》中区分过“平台”和“聚合者(Aggregator)”,也在《科技界的两种哲学》里用更具象的方式阐述过。

大体上,苹果和微软这种公司,是“平台型”:他们提供一个基础环境,第三方开发者在这个环境中创造各种应用,共同形成生态。谷歌和 Facebook 则是“聚合者”:他们的核心在于直接抓住终端用户,并把信息(包括广告)投放给用户。聚合者的价值主要来自对用户需求的“直接满足”,第三方对他们来说是“被动服从”的角色。

不过,苹果这些年对待开发者似乎越来越不太像平台,而更像在把开发者当作“可有可无”,有时甚至觉得他们是“麻烦制造者”。可现在,AI 带来的新机遇,却恰恰更适合苹果去做一个真正的“平台”——就像他们当年在 PC 时代所做的那样。
拿硬件来说,M3 Ultra 很强,但其他的 M 系列芯片也都很不错,尤其当你配足够的内存时,运行各种大型模型都有可能。就算我自己用的是一台有 96GB 内存的 M2 MacBook Pro,都可以在本地跑 Mistral 开源的某些 22B 参数量化模型。虽然输出的内容比不上最新前沿的大模型那么详细,但已经很惊艳了。而且那是完全在我的笔记本上跑的,不用付云服务费、也没有访问限制。更不可思议的是,连 iPhone 也能跑微型模型,当然规模小很多,效果也有限,可它确实做到了!
所以苹果自己在 Apple Intelligence 中其实也用本地模型 + 云端(他们叫 Private Cloud Compute)结合的方式,但却没有给第三方完整的访问接口。苹果只开放了一个“写作工具”、“图像生成 Playground”、“Genmoji”之类非常有限的框架。如果开发者想做更灵活更创新的东西,就必须自己带模型上场——那个模型不仅大,还得针对苹果设备自己做一堆优化,难度很高。
如果苹果能把自家的模型(无论是在本地还是在 Private Cloud Compute 上跑)以完整接口方式开放给开发者来使用,那就不得了。不要只局限于给个简化或阉割的 API,更不要只想着让 Siri 一家来“垄断”所有开发者的数据;而是回归到平台思维:你把原料和基础设施给到开发者,让他们自由创新——这才是只有苹果才能干得漂亮的事。更关键的是,这也是整个 AI 行业都需要的一股力量:真正灵活、多样化、本地可运行的 AI 平台。
当年 M1 芯片发布时,我写过一篇《苹果不断变化的差异化》,分析苹果是如何从最早的“软件优势”逐渐过渡到“硬件整合优势”的。大致是:
macOS(早年的 OS X)刚出来时,苹果硬件本身(PowerPC)性能不行,是 OS X 这个软件系统吸引了不少开发者。
后来苹果转用 Intel 芯片,硬件性能就和 Windows 持平,于是软件体验得以真正发挥优势。
随着很多应用迁移到 Web,操作系统本身的重要性下降了,这时苹果就要在硬件(尤其是自研芯片)上寻找新的差异点。M1 出来正好巩固了 Mac 在效率和性能上的领先。
如今在 AI 时代,苹果硬件上的优势依旧突出:他们能把 CPU、GPU、NPU 以及大容量统一内存等都高度集成,在本地就能支持相对大型的模型。这是任何只做硬件或者只做软件的公司都难以做到的——苹果完全掌控了整条硬件和操作系统栈。
这意味着,苹果如果愿意,就能把自研模型(或可扩展的基础模型)全面开放,让开发者在 iPhone、iPad、Mac 上充分发挥。只要苹果公布这些模型具体的接口与性能保证,开发者就能写出各种各样的新应用来跑。这对开发者有巨大的吸引力,也对苹果形成新的“生态壁垒”。
这并不必然意味着放弃对 Siri 的改进,新 Siri 想做的那些个人化特性也不是说不行。只是,如果从全局来看,苹果的主要差异点已经越来越偏向硬件这边了,那么在软件层面更明智的做法也许是“退一步”,少做点“终端应用”角色,多给开发者舞台。这有点像当年苹果面临 PowerPC 劣势时,不得不依赖自家软件来撑场面;可如今,对 AI 而言,苹果不必死守“什么都自己来”,而可以慷慨地说:“你们来吧,硬件我搞定,环境我给你们,API 我开放,看你们能玩出什么新花样。”这才像一个理想中的“平台型公司”。
相比之下,现在的 Siri 更多像 AI 时代的“PowerPC”:自研的过度管控反而拖了后腿。苹果应当充分认识到,他们其实不需要做所有事,完全可以依靠开发者的力量,打造独一无二的 AI 生态。
原文:https://stratechery.com/2025/apple-ais-platform-pivot-potential/