M1 系列芯片 5 nm ,M2 也是 5 nm ,M2 Pro 6+4 GB6 总分打平 M1 Pro 8+2
Zen 2 是 7 nm ,Zen 3 也是 7 nm ,同配置芯片后者完爆前者
i7-970 是 32 nm 6C12T ,i7-3970X 也是 32 nm 6C12T ,后者比前者好一截
“真六核”FX-6300 是 32 nm ,i5-2500K 也是 32 nm ,只有 4C4T ,前者多核最好情况下跟后者打平,单核被完爆
注意以上三句话关于工艺的说法全都不准确,拿最近流行的 LLM 来举例子,当我们在说 GPT-3 时,我们说的就是 OpenAI 的那个 specific 的模型,明天 6324 抽象工作室出来说我们也训练了个 Transformer 模型,也是 175B 个参数,但是它和 GPT-3 ,除了都是 175B 的 Transformer 模型之外,各方面肯定是不一样的(比如可能天然更习惯说抽象话)。只是在 AI 领域我们习惯用具体的模型名字而不是“175B 模型”这样的名字,而对于半导体,至少在圈外,大家习惯直接扔个数字。
为什么说是“圈外”,用 Intel 举例最直观,Intel 在产品规划开发时,对于工艺使用的并不是外面习惯用的 marketing name ,而是“Pxxxx”的名字,这个名字和 marketing name 基本是没有直接关系的,比如 P1274 是指 Intel 的 10 nm 工艺(应该是最初的那个版本),而其优化的"+"版本被称为 P1274.7 和 P1274.12 ,这里出现了“7”仅仅是个巧合,比如 22 nm 是叫 P1270 ,参见
https://en.wikichip.org/wiki/intel/process类似地,一个 IP 在发布之前时使用的是 codename ,如基于 Sunny Cove (SNC) 架构的 Ice Lake (ICL) SoC ,发布时叫"11th Gen Core"。
大多数用户只关心"11th Gen Core",只有圈子里关注相关消息的熟悉 SNC 和 ICL 这几个名字,知道是 10 nm ,最后基本没人 care 到底是 P 多少多少。
另一个对比是 NVIDIA 。虽然 NVIDIA 是 fabless 的,但至少从 20 系开始,NVIDIA 开始强调它的工艺是“custom”的,比如 NVIDIA 把 20 系使用的工艺称为 "12 nm FFN (FinFET NVIDIA)",30 系则叫 "Samsung 8nm 8N NVIDIA Custom Process",40 系是 "TSMC 4N NVIDIA Custom Process",尤其是这个“8N”和“4N”,你是找不到第二家的。但这个并不是说三星或者 TSMC 给 NVIDIA 单独研发了一个船新的工艺,而是随着新工艺研发越来越难,现在越来越重视通过 DTCO 压榨现有工艺的最大性能,NVIDIA 作为一流厂商自然肯定也做了不少。不过其他厂没有单独起一个 fancy 的名字来 cpu 你,不代表他们就没有做这项工作。
另外,所谓的工艺密度 /晶体管数目也不能提供太多有用的信息。参见
https://www.realworldtech.com/transistor-count-flawed-metric (这老哥自从去了咨询机构之后一年更新不了一次网站,特地发一篇文章可见“晶体管数目”的误导性有多强)。一个具体的例子是
https://chipsandcheese.com/2023/01/24/bulldozer-amds-crash-modernization-caching-and-conclusion 提到,在 45nm 时代,AMD CPU 的 L1D 中每 bit 用了 6 个晶体管,而换到 32 nm ,每 bit 就需要用 8 个晶体管,但是 L2 依然是 6 个。更加讽刺的是,根据该文章后面的分析和测试,在推土机中,这个用了更多晶体管的 L1D ,实际效果却很差。我看到这里时不由得想起“14 亿人找不出 11 个会踢足球的”。
总结起来一句话就是——事情很复杂。更具体一点:从实际的角度认识实际问题,而不是试图用单一的数值来度量所有东西。从过去的主频竞争,到 996 ,以及“唯分数论”“唯 GDP 论”,均是这种思维的恶果。
(我不知道蒋是否真正说过“80 万对 60 万,优势在我”,但这确实也是一个很不错的例子)