CPO 突破、HBM 价格暴涨,全球算力基建加速
2026 年 5 月,AI 算力产业链迎来关键突破与供需共振:三星 CPO 量产落地、HBM3E 价格半年暴涨 300%、软银 + 英伟达 + 富士康共建日本 AI 服务器,三大事件标志着算力传输、存储、基建三大核心环节全面进入 “高需求、高投入、高增长” 的超级周期,硬科技成为 AI 竞争核心战场。
一、CPO 技术突破:三星量产落地,打破算力传输瓶颈
5 月,三星正式官宣CPO(光电共封装)代工量产计划,已拿下大客户订单,成为全球少数实现 CPO 商用落地的厂商,直击 AI 算力集群 “传输功耗高、带宽不足” 的核心痛点。
量产节奏明确:2026 年下半年启动 300mm 晶圆平台量产,聚焦光子集成电路(PIC)与 CPO 光引擎代工;2027 年实现热压键合光引擎规模化生产;2028 年过渡至混合键合技术;2029 年推出交钥匙式全流程代工服务(设计 - 制造 - 封装 - 测试一站式交付)。
技术价值显著:CPO 将光引擎与芯片 / 交换机共封装,传输功耗降低 70%+、带宽提升数倍,可解决 AI 集群中 GPU 间数据传输延迟问题,助力算力利用率从 38% 提升至 60%+。
产业格局重塑:三星依托 HBM + 先进封装 + 硅光子的垂直整合能力,切入 CPO 代工赛道,与台积电、英伟达形成差异化竞争,全球算力传输供应链从 “单一垄断” 走向 “多元博弈”。
二、HBM 价格暴涨:供需缺口持续,高性能存储成核心刚需
5 月数据显示,AI 核心存储HBM3E 现货价格半年暴涨超 300%,供需缺口持续扩大,成为算力硬件 “最紧俏的硬通货”。
价格飙升逻辑:全球 95% 的 HBM 产能集中于三星(19%)、SK 海力士(61%)两家韩企,美光仅占 5% 左右;AI 大模型训练单台服务器需 640GB HBM(传统服务器的 8-10 倍),2026 年全球 HBM 供需缺口超 30%,订单排期至 2028 年。
产品迭代加速:HBM3E(8 层堆叠)成为英伟达 Blackwell B200 标配(192GB/8TB/s 带宽);更高配 B300 搭载 12 层 HBM3E(288GB),单价较前代溢价 50%+;HBM4 已获英伟达、谷歌锁定订单至 2028 年。
产业影响深远:HBM 从 “周期品” 变为 “战略资源”,SK 海力士一季度利润率达 72%,三星市值突破 1 万亿美元;存储芯片成为 AI 算力竞争的核心卡点,倒逼全球加速扩产与技术自研。
三、算力基建出海:软银 + 英伟达 + 富士康共建日本 AI 服务器
5 月 9 日,软银、英伟达、富士康达成三方合作,在日本打造基于 Blackwell 芯片的 AI 服务器制造基地,规划 5 吉瓦算力,首批产品 2027 年交付,全球算力基建竞争延伸至本土产能布局。
合作核心内容:采用英伟达 Blackwell GPU(B200/B300),初期通过组装外购组件搭建产能,2029 年前掌握完整制造流程;算力规划达 5 吉瓦,覆盖数据中心与 AI-RAN(通信 + AI 融合基础设施)场景。
三方战略诉求:软银打通 “模型投资 - 算力自研” 全链条,保障日本 “主权 AI” 数据安全;英伟达锁定高端服务器产能,绑定亚太市场;富士康(鸿海)巩固 AI 服务器代工龙头地位,扩大非手机业务占比。
全球格局影响:日本加速追赶中美算力基建,计划 2030 年前成为全球 AI 算力重要供给地;全球算力供应链呈现 “区域化、本土化” 趋势,降低单一地区依赖,同时加剧亚太算力竞争。
四、产业总结:算力硬科技进入 “突破 + 涨价 + 扩张” 三重周期
技术层:CPO 商用打破传输瓶颈,HBM 迭代匹配大模型需求,算力硬件从 “性能提升” 迈向 “架构革命”。
供需层:AI 需求指数级爆发,HBM、CPO 等高端产能短期无法匹配,价格暴涨成为常态,硬科技企业迎来利润高增期。
格局层:三星、SK 海力士主导存储,英伟达掌控芯片,富士康代工制造,全球算力产业链分工明确;同时中日加速本土算力布局,竞争从 “技术” 延伸至 “产能 + 供应链”。
财经号声明: 本文由入驻中金在线财经号平台的作者撰写,观点仅代表作者本人,不代表中金在线立场。仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。同时提醒网友提高风险意识,请勿私下汇款给自媒体作者,避免造成金钱损失,风险自负。如有文章和图片作品版权及其他问题,请联系本站。
