来源——头发实验室
错误一:对 IDM 模式过于自信
AMD 因实力不济而担心工艺风险,“歪打正着” 地早早卖掉了晶圆厂。不幸的是,工艺风险在 Intel 的 14nm 制程节点上应验了。
Broadwell(Intel 的第一款 14 nm 工艺芯片)本计划于 2013 年 Q3 实现量产进厂,并于同年底上市,但由于量产良率等因素推迟至 2014 年第一季度,最终于 2014 年第四季度才正式出货。

然而,Intel 并没有意识到这次延期是对 tick-tock 战略敲响警钟。Intel 10 nm 延期情况严重得多。Intel 最初预期在 2016 年下半年推出 10 nm 工艺,但后续不断推迟至 2017 年下半年,再延至 2018 年,最后真正迎来量产(HVM)是 2019 年下半年。且由于性能和良率不达标,Ice Lake 系列处理器始终无法完全取代 Sky Lake 成为出货主力。
Intel 和业界一些观察者将问题归咎于技术原因,如运用了复杂的多重曝光、激进地采用钴材料互联等。
然而,笔者认为这一问题的产生,并不是英特尔技术路线错误或工程能力不行,而恰恰是随着先进制程研发难度越来越大, IDM 模式比 fabless + foundries 承担的风险越来越大。

IDM 模式下的晶圆厂,只在指定的声明中期内,服务自家一两代产品。这会产生两个问题:1. 当晶圆厂在初期未导入该产品的生产时,没有很好的HVM帮助晶圆厂试错;2. 而当晶圆厂在生命周期末期,良率成熟、成本下降时,却又不得不转向新的制程节点进行研发。

前一个问题会导致 IDM 模式下的晶圆制程研发风险天然大于 foundries;后一个问题则促使 IDM 模式下的晶圆厂设定比较激进的性能指标以最大化制程节点的使用价值。
而晶圆代工厂,则会在一个制程的全生命周期分别对应不同价值需求的客户,尽可能降低产能闲置,并且在制程生命周期内缓慢打磨制程。

实际上 fabless + foundries 岂止只有 IC 设计制造商、晶圆代工厂呢?它至少还包括了一些 IP 提供商、EDA 软件厂商、封装验证厂商甚至专注于后段设计优化的供应商。这些厂商,或结成标准化联盟(如 TSMC EDA Alliance),要么以一些规范的标准进行对接。
这样做的好处自然是,产业链任何一环,都有足够的 fallback,风险是分散的。
Intel 则因为包办绝大部分以及与业界标准不一样,任何一个环节delay,都会导致整个市场节奏全乱掉。并且公司不得不在负责不同环节的部门做好时间的协调。Tick-Tock 为什么当年那么厉害?原因之一就是它把周期截然不同的制程研发周期、IC设计周期、产品生命周期做了很好的协调。
消费者视角看来,似乎是 Intel 在 和 AMD 打擂台,实际上是Intel 在和 AMD + 台积电 + 日月光 + ARM + 新思科技 + …… 等一堆厂商打擂台。Intel 再厉害,也双拳难敌四手。


因此,Intel 表面上的错误是技术节奏失控,而深层次的原因则是 IDM 模式的固有缺陷。
错误二:推崇财务导向和短期主义
我们尝试批判 Intel 于2010年前后错失苹果芯片订单时,往往注重说明 Intel 错失了移动化时代的船票,却很少注意到这背后的逻辑。
Intel 当时的管理层并非苹果的订单毫无兴趣,但管理层最终没有说服董事会,因为这项代工带来的利润太低了,会让财报不好看。
事后诸葛亮地看,这确实是董事会做出的最具代表性的短视的决定,没有之一。
这种短期主义决策,还体现在并购方面——Intel在那几年的并购策略总是整合偏财务估值而非技术协同。2010–2020 期间,Intel 在并购上花了数百亿美元(McAfee、Altera、Mobileye 等),但部分项目(如 McAfee、Basis)很快被剥离或搁置,原因是短期营收/利润达不到预期。与之对比,台积电很少进行大额并购,而是持续内部投入工艺能力。
与此同时,Intel 对那些新兴业务公司的投资则极为谨慎以至于错过一个重要的风口——是的,我们在这里指的是2017–2018 年期间拒绝投资OpenAI。
财务导向与短期主义,还导致了 HPC 战略的混乱。

先后担任过 AMD 和 Intel GPU部门高管的Raja Koduri 在最近的一篇关于 Intel 的长文中提到:从2009年的Larrabee开始,Intel 内部的高吞吐量计算架构相关项目,至少有过8次启动和放弃。在每一轮循环中,Intel 都选择了不同的架构设计,这导致每次开发都无法从以往汲取经验。
2016年,Intel 以4亿美元收购 Nervana,这家公司专门生产用于 NNP 的初创公司。它是 AI 的一个细分领域 NLP 所需要的,却不是撬动 NVIDIA 霸权所需要的。

Intel 意识到押宝错误后,又迅速做了战术调整。
第一,于2017年聘请前 AMD 负责 GPU相关业务的高管 Raja Koduri 领导新成立的 GPU 事业部(加速计算事业群,AXG)。这部分我们后面再说。
第二,尝试收购高带宽网络芯片制造商 Mellanox,但败给了NVIDIA。
第三,于2019年以20亿美元收购 Habana Labs(与此同时关闭了Nervana)。
但 Habana 显然与 Intel 整合不那么顺利——它作为被寄予厚望的 AI 公司,没有被挂靠在 Koduri的AXG,而被挂靠在了DPG(数据平台事业群),而 Habana 的员工也表示 Intel 低效的官僚主义作风已经影响了研发效率:“在Habana,我们可以用5分钟在走廊谈话做出决定,而在 Intel,同样的决定需要数十名参与者开三次会,还没进展。”

2022年,Koduri 离职后,Intel 试图将 Habana 与 AXG 进行整合。但这在公司内部引发讨论——员工并不理解,为什么 Intel 要同时开发 Gaudi 和 GPGPU,它们是相互竞争的关系。可能客户也不理解吧!
而随着 Gaudi 3 销量不及预期(Intel 对其的KPI是在2024年能够实现5亿美元收入),在整个2024年,Habana 几乎所有原班人马都从 Intel 离职了。尽管 Intel 还没宣布 Gaudi 的继任者,但工程和管理团队事实上解散,产品前景岂能不黯淡?
除了 ASIC 架构的 Gaudi,Intel 的 HPC-GPU也同样遭遇了失败。
2021年,在PPT发布的 Ponte Vecchio,实装了几台超算,但并未在主流的数据中心客户那里打开销量,在2023年宣布停止出货,转向 Falcon Shores。

Ponte Vecchio 原本计划继任者是 Rialto Bridge(Vecchio是意大利语的桥,Bridge是英语的桥),也在2023年被取消(Raja最近的长文提到它原本应该在2024年上市。)。
Falcon Shores GPU 又好到哪里去呢?
它原本被定位为“XPU”(似乎是CPU+GPU+ASIC的架构,类似AMD的APU概念),几经更改后,被重新定位为纯GPU。但大约在2025年2月初,Intel 官宣,这款GPU将仅用于内部验证,不会上市。据说是Falcon Shores 收到了客户的负面反馈。
这是技术问题吗?显然不完全是。这么大规模的芯片,在研发启动了相当长一段时间之后,它是“XPU”还是“GPU”才确定下来,还有比这更离谱的事吗?
我们看到,即使2020年后,Intel 面对 AI 狂潮有所动作,但也是进退维谷,最后全部失败。
错误三:没有倾听市场的声音
长期以来,Intel 总是强势的一方。
拿服务器 / 云计算市场来说,亚马逊、谷歌、微软等云厂商希望获得高性能但低功耗、可定制化的服务器芯片。
而那几年, Intel 的 Xeon 则重点在扩展平台生态(如推崇4路8路平台)、单线程性能最大化而不是多线程。最终,Xeon 云数据中心的运营成本中,电费和散热占了很大比例,这引起了云厂商的极大不满。
AWS 曾多次与 Intel 讨论定制低功耗、高核心数版本的 Xeon,但 Intel 出于 产品线保护 与 财务利润最大化考量,没有积极响应。
Google、Microsoft Azure 则提出了一些定制化需求,希望优化某些微架构特性(例如内存带宽、加速器支持),Intel 在响应速度和灵活性上明显不如后来进入市场的 AMD 和 Arm 供应商。
结果是,Intel 的傲慢给了 AMD Epyc 可乘之机。后者以主打多核、多线程性能、更具竞争性的总拥有成本,打开了大客户的市场。AWS 则推出了自研 Graviton(基于 Arm) 系列 CPU。
Intel 在数据中心市场份额从 2018 年的 99% 下滑到 2023 年约 70% 左右; AMD 则从2018年的不足1%猛增到2025年的32%。截至目前,这一趋势还在继续。

Intel 对市场的怠慢,还体现在糟糕的交付纪律方面。

除了被广为调侃的14nm+++以及10nm的CPU产品,还有 Intel 无法按时向 Nokia 交付 用于 5G RAN 的芯片,直接导致了 Nokia 在欧美的 5G 建设浪潮中丢失大量市场。时任 Nokia 总裁 Rajeev Suri 不得不因为此事于2020年下台。
总结
总结来说,Intel在商业决策上的三大失误使其失去了在不同市场和领域的领先地位。
面对这些失误,Intel需要重新审视其商业模式和管理策略,加强与合作伙伴的协作,提高市场反应速度和灵活性,方能在未来的竞争中立于不败之地。
错误一:对 IDM 模式过于自信
AMD 因实力不济而担心工艺风险,“歪打正着” 地早早卖掉了晶圆厂。不幸的是,工艺风险在 Intel 的 14nm 制程节点上应验了。
Broadwell(Intel 的第一款 14 nm 工艺芯片)本计划于 2013 年 Q3 实现量产进厂,并于同年底上市,但由于量产良率等因素推迟至 2014 年第一季度,最终于 2014 年第四季度才正式出货。

然而,Intel 并没有意识到这次延期是对 tick-tock 战略敲响警钟。Intel 10 nm 延期情况严重得多。Intel 最初预期在 2016 年下半年推出 10 nm 工艺,但后续不断推迟至 2017 年下半年,再延至 2018 年,最后真正迎来量产(HVM)是 2019 年下半年。且由于性能和良率不达标,Ice Lake 系列处理器始终无法完全取代 Sky Lake 成为出货主力。
Intel 和业界一些观察者将问题归咎于技术原因,如运用了复杂的多重曝光、激进地采用钴材料互联等。
然而,笔者认为这一问题的产生,并不是英特尔技术路线错误或工程能力不行,而恰恰是随着先进制程研发难度越来越大, IDM 模式比 fabless + foundries 承担的风险越来越大。

IDM 模式下的晶圆厂,只在指定的声明中期内,服务自家一两代产品。这会产生两个问题:1. 当晶圆厂在初期未导入该产品的生产时,没有很好的HVM帮助晶圆厂试错;2. 而当晶圆厂在生命周期末期,良率成熟、成本下降时,却又不得不转向新的制程节点进行研发。

前一个问题会导致 IDM 模式下的晶圆制程研发风险天然大于 foundries;后一个问题则促使 IDM 模式下的晶圆厂设定比较激进的性能指标以最大化制程节点的使用价值。
而晶圆代工厂,则会在一个制程的全生命周期分别对应不同价值需求的客户,尽可能降低产能闲置,并且在制程生命周期内缓慢打磨制程。

实际上 fabless + foundries 岂止只有 IC 设计制造商、晶圆代工厂呢?它至少还包括了一些 IP 提供商、EDA 软件厂商、封装验证厂商甚至专注于后段设计优化的供应商。这些厂商,或结成标准化联盟(如 TSMC EDA Alliance),要么以一些规范的标准进行对接。
这样做的好处自然是,产业链任何一环,都有足够的 fallback,风险是分散的。
Intel 则因为包办绝大部分以及与业界标准不一样,任何一个环节delay,都会导致整个市场节奏全乱掉。并且公司不得不在负责不同环节的部门做好时间的协调。Tick-Tock 为什么当年那么厉害?原因之一就是它把周期截然不同的制程研发周期、IC设计周期、产品生命周期做了很好的协调。
消费者视角看来,似乎是 Intel 在 和 AMD 打擂台,实际上是Intel 在和 AMD + 台积电 + 日月光 + ARM + 新思科技 + …… 等一堆厂商打擂台。Intel 再厉害,也双拳难敌四手。


因此,Intel 表面上的错误是技术节奏失控,而深层次的原因则是 IDM 模式的固有缺陷。
错误二:推崇财务导向和短期主义
我们尝试批判 Intel 于2010年前后错失苹果芯片订单时,往往注重说明 Intel 错失了移动化时代的船票,却很少注意到这背后的逻辑。
Intel 当时的管理层并非苹果的订单毫无兴趣,但管理层最终没有说服董事会,因为这项代工带来的利润太低了,会让财报不好看。
事后诸葛亮地看,这确实是董事会做出的最具代表性的短视的决定,没有之一。
这种短期主义决策,还体现在并购方面——Intel在那几年的并购策略总是整合偏财务估值而非技术协同。2010–2020 期间,Intel 在并购上花了数百亿美元(McAfee、Altera、Mobileye 等),但部分项目(如 McAfee、Basis)很快被剥离或搁置,原因是短期营收/利润达不到预期。与之对比,台积电很少进行大额并购,而是持续内部投入工艺能力。
与此同时,Intel 对那些新兴业务公司的投资则极为谨慎以至于错过一个重要的风口——是的,我们在这里指的是2017–2018 年期间拒绝投资OpenAI。
财务导向与短期主义,还导致了 HPC 战略的混乱。

先后担任过 AMD 和 Intel GPU部门高管的Raja Koduri 在最近的一篇关于 Intel 的长文中提到:从2009年的Larrabee开始,Intel 内部的高吞吐量计算架构相关项目,至少有过8次启动和放弃。在每一轮循环中,Intel 都选择了不同的架构设计,这导致每次开发都无法从以往汲取经验。
2016年,Intel 以4亿美元收购 Nervana,这家公司专门生产用于 NNP 的初创公司。它是 AI 的一个细分领域 NLP 所需要的,却不是撬动 NVIDIA 霸权所需要的。

Intel 意识到押宝错误后,又迅速做了战术调整。
第一,于2017年聘请前 AMD 负责 GPU相关业务的高管 Raja Koduri 领导新成立的 GPU 事业部(加速计算事业群,AXG)。这部分我们后面再说。
第二,尝试收购高带宽网络芯片制造商 Mellanox,但败给了NVIDIA。
第三,于2019年以20亿美元收购 Habana Labs(与此同时关闭了Nervana)。
但 Habana 显然与 Intel 整合不那么顺利——它作为被寄予厚望的 AI 公司,没有被挂靠在 Koduri的AXG,而被挂靠在了DPG(数据平台事业群),而 Habana 的员工也表示 Intel 低效的官僚主义作风已经影响了研发效率:“在Habana,我们可以用5分钟在走廊谈话做出决定,而在 Intel,同样的决定需要数十名参与者开三次会,还没进展。”

2022年,Koduri 离职后,Intel 试图将 Habana 与 AXG 进行整合。但这在公司内部引发讨论——员工并不理解,为什么 Intel 要同时开发 Gaudi 和 GPGPU,它们是相互竞争的关系。可能客户也不理解吧!
而随着 Gaudi 3 销量不及预期(Intel 对其的KPI是在2024年能够实现5亿美元收入),在整个2024年,Habana 几乎所有原班人马都从 Intel 离职了。尽管 Intel 还没宣布 Gaudi 的继任者,但工程和管理团队事实上解散,产品前景岂能不黯淡?
除了 ASIC 架构的 Gaudi,Intel 的 HPC-GPU也同样遭遇了失败。
2021年,在PPT发布的 Ponte Vecchio,实装了几台超算,但并未在主流的数据中心客户那里打开销量,在2023年宣布停止出货,转向 Falcon Shores。

Ponte Vecchio 原本计划继任者是 Rialto Bridge(Vecchio是意大利语的桥,Bridge是英语的桥),也在2023年被取消(Raja最近的长文提到它原本应该在2024年上市。)。
Falcon Shores GPU 又好到哪里去呢?
它原本被定位为“XPU”(似乎是CPU+GPU+ASIC的架构,类似AMD的APU概念),几经更改后,被重新定位为纯GPU。但大约在2025年2月初,Intel 官宣,这款GPU将仅用于内部验证,不会上市。据说是Falcon Shores 收到了客户的负面反馈。
这是技术问题吗?显然不完全是。这么大规模的芯片,在研发启动了相当长一段时间之后,它是“XPU”还是“GPU”才确定下来,还有比这更离谱的事吗?
我们看到,即使2020年后,Intel 面对 AI 狂潮有所动作,但也是进退维谷,最后全部失败。
错误三:没有倾听市场的声音
长期以来,Intel 总是强势的一方。
拿服务器 / 云计算市场来说,亚马逊、谷歌、微软等云厂商希望获得高性能但低功耗、可定制化的服务器芯片。
而那几年, Intel 的 Xeon 则重点在扩展平台生态(如推崇4路8路平台)、单线程性能最大化而不是多线程。最终,Xeon 云数据中心的运营成本中,电费和散热占了很大比例,这引起了云厂商的极大不满。
AWS 曾多次与 Intel 讨论定制低功耗、高核心数版本的 Xeon,但 Intel 出于 产品线保护 与 财务利润最大化考量,没有积极响应。
Google、Microsoft Azure 则提出了一些定制化需求,希望优化某些微架构特性(例如内存带宽、加速器支持),Intel 在响应速度和灵活性上明显不如后来进入市场的 AMD 和 Arm 供应商。
结果是,Intel 的傲慢给了 AMD Epyc 可乘之机。后者以主打多核、多线程性能、更具竞争性的总拥有成本,打开了大客户的市场。AWS 则推出了自研 Graviton(基于 Arm) 系列 CPU。
Intel 在数据中心市场份额从 2018 年的 99% 下滑到 2023 年约 70% 左右; AMD 则从2018年的不足1%猛增到2025年的32%。截至目前,这一趋势还在继续。

Intel 对市场的怠慢,还体现在糟糕的交付纪律方面。

除了被广为调侃的14nm+++以及10nm的CPU产品,还有 Intel 无法按时向 Nokia 交付 用于 5G RAN 的芯片,直接导致了 Nokia 在欧美的 5G 建设浪潮中丢失大量市场。时任 Nokia 总裁 Rajeev Suri 不得不因为此事于2020年下台。
总结
总结来说,Intel在商业决策上的三大失误使其失去了在不同市场和领域的领先地位。
面对这些失误,Intel需要重新审视其商业模式和管理策略,加强与合作伙伴的协作,提高市场反应速度和灵活性,方能在未来的竞争中立于不败之地。