日前,有X博主发文表示,OpenAI目前最强的大模型GPT-5是使用英伟达H100/H200芯片训练的,用GB200 NVL72进行推理,而并未用上更强大的B200芯片。
其消息援引自英伟达亚太区官方账号于今年8月的一条X推文,内容曝光了 OpenAI GPT-5 背后的硬件支撑细节,根据 NVIDIA Asia Pacific 发布的内容,GPT-5 的训练环节并未采用最新的 B200—— 其训练依赖的是 NVIDIA H100 和 H200 GPU;而在推理部署阶段,则用上了 NVIDIA GB200 NVL72 系统。

这个 GB200 NVL72 系统配置相当 “豪华”:它搭载了 72 个 Blackwell 架构 GPU,还搭配了 36 个 Grace CPU,整套系统靠 NVIDIA 的 NVLink 及 NVLink Switch 计算架构连接,专门适配大规模的顶尖 AI 运算需求。
同时这条动态也明确了一个信息:目前市面上还没有任何模型,是通过 B200 训练生成的。

英伟达的 B200(基于 Blackwell 架构)是比 H100(Hopper 架构)和 H200(Hopper 的升级版)更强大的芯片,尤其是在 AI 训练和推理方面。
B200 支持更低精度 FP4 和 FP6,并在 FP4 情况下能达到 ~20 PFLOPS 的推理算力,是 H100 ~4× 的峰值表现。H100 主要优化 FP8,但在这些超低精度场景下算力不及 B200。
B200 拥有 192 GB HBM3e 以及 ~8 TB/s 内存带宽,显著超过 H100/H200。H200 虽然比 H100 内存大(~141 GB),但在规模、带宽与性能上仍落后于 B200。
此外,在多卡互联方面,B200 使用更先进的 NVLink 5(~1.8 TB/s),提升大规模分布式训练效率。
当然,并不是说用上B200来训练大模型,就一定比H100/H200训练的大模型“必然更强”,但它能让训练更便宜、更快,并支持更大的模型规模和更多训练迭代,因此在同样的技术路线下,大概率会带来更强的大模型。