英伟达官方证实GPT-5是用H100/H200训练的,更强的B200尚未下场

栏目:科技 | 来源:知识圈 | 更新时间:2025-12-09 22:21:00

日前,有X博主发文表示,OpenAI目前最强的大模型GPT-5是使用英伟达H100/H200芯片训练的,用GB200 NVL72进行推理,而并未用上更强大的B200芯片。

其消息援引自英伟达亚太区官方账号于今年8月的一条X推文,内容曝光了 OpenAI GPT-5 背后的硬件支撑细节,根据 NVIDIA Asia Pacific 发布的内容,GPT-5 的训练环节并未采用最新的 B200—— 其训练依赖的是 NVIDIA H100 和 H200 GPU;而在推理部署阶段,则用上了 NVIDIA GB200 NVL72 系统。

这个 GB200 NVL72 系统配置相当 “豪华”:它搭载了 72 个 Blackwell 架构 GPU,还搭配了 36 个 Grace CPU,整套系统靠 NVIDIA 的 NVLink 及 NVLink Switch 计算架构连接,专门适配大规模的顶尖 AI 运算需求。

同时这条动态也明确了一个信息:目前市面上还没有任何模型,是通过 B200 训练生成的

英伟达的 B200(基于 Blackwell 架构)是比 H100(Hopper 架构)和 H200(Hopper 的升级版)更强大的芯片,尤其是在 AI 训练和推理方面。

B200 支持更低精度 FP4 和 FP6,并在 FP4 情况下能达到 ~20 PFLOPS 的推理算力,是 H100 ~4× 的峰值表现。H100 主要优化 FP8,但在这些超低精度场景下算力不及 B200。

B200 拥有 192 GB HBM3e 以及 ~8 TB/s 内存带宽,显著超过 H100/H200。H200 虽然比 H100 内存大(~141 GB),但在规模、带宽与性能上仍落后于 B200。

此外,在多卡互联方面,B200 使用更先进的 NVLink 5(~1.8 TB/s),提升大规模分布式训练效率。

当然,并不是说用上B200来训练大模型,就一定比H100/H200训练的大模型“必然更强”,但它能让训练更便宜、更快,并支持更大的模型规模和更多训练迭代,因此在同样的技术路线下,大概率会带来更强的大模型。

← 返回首页