Hopper (微架构)
| 制造工艺 | TSMC 5纳米制程 |
|---|---|
| 历史 | |
| 前代产品 | Ampere |
| 相关产品 | Ada Lovelace (個人電腦和工作站版) |
| 后继产品 | Blackwell |

Hopper是由英伟达开发的圖形處理器微架构。Hopper微架构的圖形處理器主要用於数据中心,也是NVIDIA Tesla产品线的一部分。Hopper微架构于2022年3月正式亮相[1]。
Hopper微架構以電腦科學家暨美國海軍少將葛麗絲·霍普(Grace Hopper)的名字命名,於2019年11月洩露,並於2022年3月正式發布。它在其前身Turing和Ampere微架構的基礎上進行了改進,配備了全新的串流多處理器、更快的記憶體子系統以及Transformer加速引擎。
架構
[编辑]NVIDIA H100 GPU採用台積電N4製程製造,擁有800億個電晶體。它由多達144個串流式多處理器組成。[2]由於SXM5插槽提供的更高記憶體頻寬,H100在SXM5配置下的效能優於在典型的PCIe插槽下。[3]
歷史
[编辑]2019年11月,一個知名的Twitter帳號發佈了一則推文,透露Ampere之後的下一個架構將名為Hopper,以電腦科學家、美國海軍後上將葛麗絲·霍普 命名,她是哈佛马克一号的第一批程式設計師之一。該帳號表示,Hopper將採用多晶片模組設計,這將會以更低的損耗獲得良率提升。[4]
在2022年英伟达GTC期間,英伟达正式發表Hopper。[5]
2023年末,由於美国政府禁止英伟达向中国出口採用Hopper微架构的H800圖形處理器, [6]这使得英伟达向中國推出採用Hopper微架构的H20,H20是H100的改进版,也可以視為中國特供版的H100[7]。 不過美國政府又於2025年4月15日阻止英伟达向中國出口H20[8]。12月8日,美国总统特朗普宣布,将允许英伟达对华出口其H200人工智能(AI)芯片,此决定有附带条件,包括保障美国所谓“国家安全”,且美国政府将获得25%的分成。[9]
到了2023年,在人工智能熱潮期間,H100 GPU极受歡迎。甲骨文公司的拉里·埃里森(Larry Ellison)當年表示,在與輝達CEO黃仁勳共進晚宴時,他與特斯拉公司和xAI的埃隆·馬斯克(Elon Musk)都在「乞求」輝達提供H100 GPU,他評論說:「我想這是描述它的最佳方式,花了一個小時吃壽司和乞求」。[10]
2024年1月,雷蒙·詹姆斯金融公司(Raymond James Financial)的分析師估計,輝達正在以每顆$25,000美元到$30,000美元之間的價格販售 H100 GPU,而在eBay上,單顆H100的價格飆升至$40,000美元以上。[11]截至2024年2月,據報導輝達甚至還動了用裝甲車運送H100 GPU到資料中心。[12]
产品
[编辑]英伟达公开基于 Hopper 架构、且面向数据中心的主力计算卡主要是 H100、H200 和 H20(以及区域/系统形态上的 H800、HGX 机箱形态等变体)。[13]
| 参数[14][15][16] | H100 SXM | H100 PCIe | H20(中国特供) | H200 SXM[17] |
|---|---|---|---|---|
| CUDA 核心数 | 16,896 | 官方未公布,通常被认为与 H100 同级或略裁剪 | 16,896 | |
| 显存类型 | HBM3 | HBM2e / HBM3 | HBM3 | HBM3e |
| 显存容量 | 80 GB | 96 GB | 140–144 GB | |
| 显存带宽 | 3.0–3.4 TB/s | 2.0–3.0 TB/s | 3.5–4.1 TB/s | 4.5–4.9 TB/s |
| FP16/BF16 算力 | 200–240 TFLOPS | 150–200 TFLOPS | 50–120 TFLOPS(公开区间较宽) | 200–260 TFLOPS |
| NVLink 支持 | 支持,最高约 900 GB/s | 通常不带 NVLink | 视具体板卡/机箱形态而定 | 支持,最高约 900 GB/s |
| 典型 TDP | 600–700 W | 300–400 W | 300–450 W | 650–800 W |
参考文献
[编辑]- ^ Vincent, James. Nvidia reveals H100 GPU for AI and teases 'world's fastest AI supercomputer'. The Verge. March 22, 2022 [May 29, 2023].
- ^ Elster & Haugdahl 2022,第4頁.
- ^ Nvidia 2023c,第20頁.
- ^ Pirzada, Usman. NVIDIA Next Generation Hopper GPU Leaked – Based On MCM Design, Launching After Ampere. Wccftech. November 16, 2019 [May 29, 2023].
- ^ Vincent, James. Nvidia reveals H100 GPU for AI and teases 'world's fastest AI supercomputer'. The Verge. March 22, 2022 [May 29, 2023].
- ^ Leswing, Kif. U.S. curbs export of more AI chips, including Nvidia H800, to China. CNBC. 2023-10-17 [2025-01-28] (英语).
- ^ Nguyen, Britney. Here are the chips that Nvidia can sell to China. Quartz. 2025-03-27 [2025-04-18].
- ^ 英伟达H20“无限期”禁止对华出口. 新浪财经_金融信息服务商. 2025-04-18 [2025-04-18] (中文).
- ^ 特朗普:允许英伟达对华出口H200芯片,但要抽成25%.
- ^ Fitch, Asa. Nvidia's Stunning Ascent Has Also Made It a Giant Target. The Wall Street Journal. 2024-02-26 [2024-02-27] (美国英语).
- ^ Vanian, Jonathan. Mark Zuckerberg indicates Meta is spending billions of dollars on Nvidia AI chips. CNBC. January 18, 2024 [June 6, 2024].
- ^ Bousquette, Isabelle; Lin, Belle. Armored Cars and Trillion Dollar Price Tags: How Some Tech Leaders Want to Solve the Chip Shortage
. The Wall Street Journal. February 14, 2024 [May 30, 2024].
- ^ NVIDIA Hopper GPU Architecture. NVIDIA. [2025-12-11] (美国英语).
- ^ NVIDIA Data Center GPU Specs: A Complete Comparison Guide. IntuitionLabs. [2025-12-11] (英语).
- ^ Goll, Paul. NVIDIA H100 vs. H200: A Comprehensive Comparison. Medium. 2024-09-12 [2025-12-11] (英语).
- ^ NVIDIA H20 vs H100 vs H200: The Data Center GPU Battle That's Reshaping Enterprise AI. www.linkedin.com. [2025-12-11] (中文).
- ^ NVIDIA H200 GPU. NVIDIA. [2025-12-11] (美国英语).