
NVIDIA发布Blackwell架构GPU,AI计算性能提升30倍
NVIDIA发布新一代Blackwell架构GPU,性能较上代提升30倍,能效提升25倍,将加速AI模型训练和推理,推动下一代AI应用发展。

NVIDIA发布Blackwell架构GPU,AI计算性能提升30倍
NVIDIA今日正式发布了基于全新Blackwell架构的AI芯片系列,这是继Hopper架构之后的重大升级,将为大型语言模型训练和推理提供前所未有的计算能力。
突破性架构设计
Blackwell架构在多个方面实现了技术突破:
- 晶体管数量突破:单芯片集成1.8万亿个晶体管,是前代Hopper的3倍
- 计算性能飞跃:AI计算性能较Hopper架构提升约30倍
- 内存带宽提升:内存带宽增至8TB/s,支持更大规模模型训练
- 能效比革命:相同工作负载下能耗降低25倍
NVIDIA创始人兼CEO黄仁勋表示:"Blackwell代表了GPU架构的重大飞跃,它将为生成式AI的下一阶段提供所需的计算基础,同时显著降低能源消耗。"
产品线布局
此次发布的Blackwell产品线包括:
- GB200 NVL72:包含72个GPU的超大规模系统,专为超大模型训练设计
- B200 GPU:面向企业级AI训练和推理的核心产品
- B100 GPU:兼顾性能和成本的主流AI计算卡
- BGX AI超级计算机:预配置的端到端AI系统解决方案
性能与应用突破
NVIDIA展示了Blackwell架构在实际应用中的卓越性能:
- 训练1万亿参数模型的时间从数月缩短至数周
- 单一系统可同时运行高达5000亿参数的大型语言模型推理
- 实时视频处理分析能力提升8倍
- 混合精度推理效率提升10倍以上
行业合作与部署
多家云服务提供商和AI研究机构已宣布将部署Blackwell系统:
- Microsoft Azure将在其AI基础设施中部署GB200系统
- Google Cloud宣布将推出基于B200的新一代AI加速服务
- Meta将使用Blackwell芯片扩展其AI研究和产品开发能力
- 特斯拉将采用B100加速其自动驾驶AI训练
软件生态系统
为支持Blackwell架构,NVIDIA同步更新了软件平台:
- CUDA-X AI库全面优化,支持Blackwell架构
- TensorRT推理引擎更新,充分发挥Blackwell性能
- NeMo大模型框架升级,针对万亿参数模型优化
- NVIDIA AI Enterprise软件套件扩展,简化企业AI部署
能源效率与可持续性
Blackwell架构特别强调能源效率提升:
- 相同计算任务能耗降低25倍
- 数据中心空间占用减少80%
- 冷却需求显著降低
- 支持液冷技术,进一步优化能效
这些改进将显著降低AI运算的碳足迹,支持更可持续的AI发展。
市场前景
分析师预测,Blackwell系列产品将进一步巩固NVIDIA在AI芯片市场的领导地位:
- 2024年底前预计出货超过10万片B100/B200
- 预计带动NVIDIA AI相关业务增长70%以上
- 大型科技公司和云服务商将是首批采用者
- 2025年将逐步向更广泛的企业市场普及
NVIDIA股价在发布后上涨6.8%,创历史新高,市场对Blackwell系列表现出高度信心。
随着Blackwell架构的发布,AI计算进入新阶段,将加速下一代更大、更复杂AI模型的开发,并为实时AI应用提供更强大的计算基础。
相关新闻
微软发布Copilot Studio Enterprise,加速企业级AI定制应用
微软推出Copilot Studio Enterprise版本,提供高级工具帮助企业构建和部署基于大模型的定制AI应用,强化企业数据安全与治理。
阿里云开源千问2代模型,推动中文AI生态发展
阿里云正式开源千问2代(Qwen2)系列模型,包括从70亿到720亿参数的多个版本,在中文理解和多语言能力上表现优异。
Anthropic推出Claude Business和Enterprise企业版服务
Anthropic发布Claude Business和Enterprise企业级服务,提供更高安全性、定制化和数据保护能力,加速企业AI应用落地。