解説
さらに詳しく解説
Blackwell(ブラックウェル)は、NVIDIAが2024年に発表した次世代GPUアーキテクチャです。AI/機械学習ワークロードに最適化され、前世代Hopperから大幅な性能向上を実現しています。
Blackwellの概要
| 項目 | 仕様 |
|---|---|
| 発表 | 2024年3月(GTC 2024) |
| プロセス | TSMC 4NP |
| トランジスタ数 | 2,080億個 |
| 主要製品 | B100、B200、GB200 |
主要な技術革新
1. 第2世代Transformer Engine
- FP4(4ビット浮動小数点)対応
- 推論性能の大幅向上
- メモリ帯域の効率化
2. NVLink 5.0
3. 第5世代Tensor Core
- LLM学習で30倍の性能向上(H100比)
- 推論で25倍の性能向上
製品ラインナップ
| 製品 | 構成 | 主な用途 |
|---|---|---|
| B100 | 単体GPU | HPC、AI学習 |
| B200 | 高性能版 | 大規模LLM |
| GB200 | Grace CPU + 2xB200 | 推論特化 |
| GB200 NVL72 | 72GPU統合 | エクサスケールAI |
Hopperとの比較
| 指標 | Blackwell | Hopper |
|---|---|---|
| FP8 Tensor性能 | 20 PFLOPS | 4 PFLOPS |
| HBMメモリ | 192GB | 80GB |
| メモリ帯域 | 8TB/s | 3.35TB/s |
| TDP | 700W | 700W |
AI開発への影響
LLM学習
- 1兆パラメータモデルの学習が現実的に
- 学習時間の大幅短縮
- エネルギー効率の改善
推論
- リアルタイム推論の高速化
- コスト効率の向上
- より大きなモデルの展開
導入企業
市場への影響
Blackwellは、AIインフラの次世代標準として位置づけられ、AI開発競争において重要な役割を果たしています。需要が供給を大幅に上回り、納期が長期化している状況が続いています。
NVIDIAは、Blackwellにより「AIファクトリー」構想を推進し、AIをあらゆる産業に普及させることを目指しています。
この用語が登場した記事(3件)
CES 2026:AIは「実験」から「産業実装」へ。Nvidiaとロボットが示す転換点
CES 2026はAIの「誇大広告の終わり」と「実用化の始まり」を告げる場となりました。Nvidiaの新チップやGoogleのGemini 3、そして急拡大する「実体化AI」の動向から、日本の製造業・ビジネス界が直面する新たな競争と機会を解説します。
NVIDIAが描く「物理的AI」の未来とRTX 50シリーズの衝撃:CES 2025解説
CES 2025でNVIDIAは次世代GPU「RTX 50シリーズ」を発表。しかし真の注目点は、AIが現実世界で活動する「物理的AI」へのシフトです。ロボティクス、自律エージェント、AI PCなど、日本企業にも多大な影響を与える最新動向を解説します。
NVIDIA次世代基盤「Vera Rubin」発表:AIは対話から「実務代行」へ
CES 2026でNVIDIAが新プラットフォーム「Vera Rubin」を発表。Blackwellの後継として、自律的に業務を行う「エージェンティックAI」に最適化。IntelやAMDの動向と共に、2026年のAIインフラ競争を解説します。
