正在2026年邦际消费电子展(CES)上,AMD浮现了即将推出的Venice系列办事器CPU和MI400系列数据核心加快器。AMD曾正在2025年6月的“Advancing AI”举动上先容过Venice和MI400系列的规格,但此次是AMD初度公然浮现这两个产物线的芯片。
最先,Venice 经管器最明显的转折正在于其 CCD 与 I/O 芯片的封装形式有所区别。AMD 自 EPYC Rome 此后不断运用封装的有机基板来衔尾 CCD 和 I/O 芯片,而 Venice 宛如采用了一种更优秀的封装形式,相仿于 Strix Halo 或 MI250X。另一个转折是,Venice 宛如装备了两个 I/O 芯片,而不是之前 EPYC CPU 的单个 I/O 芯片。
Venice 芯片包罗 8 个 CCD,每个 CCD 有 32 个中心,是以每个 Venice 封装最众可容纳 256 个中心。对每个芯片举行丈量后展现,每个 CCD 的 N2 硅面积约为 165 平方毫米。假若 AMD 僵持每个中心装备 4MB 的 L3 缓存,那么每个 CCD 就包罗 32 个 Zen 6 中心和 128MB 的 L3 缓存,以及用于 CCD 与 I/O 芯片通讯的芯片间接口。每个 CCD 的面积约为 165 平方毫米,这意味着每个 Zen 6 中心加上 4MB 的 L3 缓存大约占 5 平方毫米,这与Zen 5 中心加上 4MB L3 缓存后 N3 芯片的面积(约 5.34 平方毫米)左近。
接下来看I/O芯片,每个芯片的面积约为353平方毫米,总共超越700平方毫米的硅片用于I/O芯片。这比之前的EPYC CPU的I/O芯局部积(约400平方毫米)有了明显擢升。这两个I/O芯片宛如采用了某品种似于CCD的优秀封装技巧。正在I/O芯片旁边,封装两侧各有4个小芯片,共8个,它们能够是组织硅片或深沟槽电容芯片,旨正在刷新CCD和I/O芯片的供电。
咱们再来看看MI400加快器。这款芯片封装尺寸伟大,包罗12颗HBM4显存芯片和“12颗2纳米和3纳米制程的估计打算和I/O芯片”。它宛如和MI350相似,有两个本原芯片。但与MI350区别的是,MI400的本原芯片顶部和底部宛如另有两个特别的芯片。这两个特别的芯片很能够用于封装外I/O,比方PCIe、UALink等。
通过估计打算本原芯片和I/O芯片的面积,两个本原芯片的面积约为747平方毫米,而封装外的I/O芯片的面积约为220平方毫米。至于估计打算芯片,固然封装形式使得区别估计打算芯片之间无法直接划分,但很能够共有8个估计打算芯片,每个本原芯片上集成4个估计打算芯片。是以,固然咱们无法确定估计打算芯片确实凿面积,但其最大面积约为180平方毫米。估计打算芯片组的面积能够正在140平方毫米到160平方毫米之间,但这只是最佳推断,还必要进一步验证。
Venice 和 MI400 系列都将于本年晚些功夫揭橥,我如饥似渴地思明了这两款 SoC 的底层架构。
正在苏姿丰担负AMD首席推行官的十一年众岁月里,该公司从Opteron的低谷中强势回归,成为数据核心CPU规模英特尔的强劲敌手。这正在很大水准上要归功于苏姿丰、首席技巧官马克·帕珀马斯特以及其他繁众团队成员饱励的Zen微架构和Epyc办事器芯片的改进。并且,正如咱们之条件到的,这也要归功于英特尔本身的少许失误。
正在人工智能时间,这家供应商正寻求正在由行业领头羊英伟达主导的GPU体例市集中为己方启示更大的空间。
AMD 另有很长的道要走,但它正发愤将其 Instinct GPU 打形成英伟达 (Nvidia) 的有力角逐敌手。它比来揭晓与 OpenAI 修设合营闭连,OpenAI 三年前仰仗 ChatGPT 开启了暂时的天生式人工智能 (AI) 潮水,而且像其角逐敌手相似,也正在饱励智能体人工智能的生长。此次合营无疑将对 AMD 大有裨益,由于 AMD 参与了一家急需更众估计打算才华且宛如具有雄厚财力的公司。此前,AMD 还与其他 AI 规模的公司修设了合营闭连,包罗客岁初春揭晓与 Oracle 的合营。
恰是正在如此的后台下,苏姿丰收台,正在拉斯维加斯举办的2026年消费电子展(CES)上揭橥了揭幕主旨演讲,并指出人工智能规模对估计打算才华的需求正正在神速增加。她显示,AMD是最有才华、也最盘算好供应这种估计打算才华的公司,并填充说,AMD不光不妨供应GPU和CPU,还能供应餍足估计打算需求所需的神经经管单位(NPU)和体例架构。这种估计打算需求每年增加超越四倍,与更智能、更有效的模子的产生、推理才华的奔腾以及智能体的崛起坚持同步。
苏姿丰显示:“要餍足这种估计打算需求,扫数生态体例务必严紧互助。咱们常说,真正的挑拨正在于怎么构修兆级人工智能本原步骤?这不光仅必要原始的机能。它始于领先的估计打算才华,包罗CPU、GPU和汇集,必要整合。它必要怒放式模块化机架计划,不妨跟着产物世代的演进而连续升级。它必要高速汇集衔尾,将数千个加快器衔尾到一个联合的体例中。并且,它务必万分易于安置。”
AMD即将推出的下一代机架式办事器平台Helios,正如CEO苏姿丰所说,是为Yotta级估计打算时间而计划的。它采用双宽计划,基于怒放估计打算项目(OCP)的怒放式机架宽(ORW)轨范,重量亲昵7000磅。Helios将于本年上市,还将搭载AMD最新的AI GPU Instinct MI455X和下一代Epyc“Venice”办事器CPU,这两款产物苏姿丰都正在主旨演讲中举行了浮现。
“假若你以前没睹过机架,我告诉你,Helios 的机架实在是个硕大无朋,”她说。“这可不是泛泛的机架,好吗?它本质上比两辆小型轿车加起来还要大。”
苏姿丰还揭晓了AMD改日两年的数据核心GPU途径图,最先是将于本年推出的Instinct MI455X。这款GPU插槽具有3200亿个晶体管——比大约六个月前揭橥的MI355X加添了70%——采用2纳米和3纳米工艺,并装备432GB的HBM4堆迭式显存,全盘组件均通过AMD的3D芯片堆迭技巧衔尾。
MI455X 也进一步擢升了 AMD GPU 的机能。跟着 MI355X 的揭橥,AMD 芯片修制商竣工了比上一代产物突出三倍的推理含糊量。而 MI455X 的机能则比 MI355X 突出十倍。
来岁,跟着MI500系列显卡的揭橥,这一趋向将进一步加快。该显卡目前正正在研发中。这款GPU将基于AMD的下一代CDNA 6架构,采用2纳米制程工艺修制,并运用速率更速的HBM4E(高带宽内存4扩展版)。她显示,这款显卡将于2027年上市,这意味着AMD正在四年内竣工了AI机能1000倍的擢升。
苏姿丰显示:“咱们把内存和GPU带宽比上一代产物抬高了一倍,是以尽管正在机架范围下,Venice也能以全速向MI455传输数据。这本质上是协同工程的结果。咱们使用Pensando的800 Gb/秒以太网芯片‘Vulcano’和‘Salina’将全盘组件整合正在一道,从而竣工了超高带宽和超低延迟。”
苏姿丰显示:“数万个Helios机架能够扩展到扫数数据核心。这意味着每个Helios机架都具有超越18,000个CDNA5 GPU估计打算单位和超越4,600个Zen 6 CPU中心,可供应高达2.9 exaflops的机能。每个机架还包罗31 TB的HBM4内存、业界领先的260 TB/s纵向扩展带宽以及43 TB/s的咸集横向扩展带宽,从而竣工极速的数据进出。”
AMD正正在向英伟达创议挑拨,而且其产物途径图标明它将接连如此做。但它将面临的是一个敏捷生长的市集辅导者。正如咱们本周报道的那样,英伟达正在CES上揭晓了其即将推出的“Rubin”GPU加快器和“Vera”基于Arm架构的办事器CPU的具体参数,更不消说其可扩展的NVLink内存架构和可扩展的Spectrum以太网互连技巧,以及新的网卡和DPU了。
电话:400-123-4657
地址:广东省广州市天河区88号