- **HBM(High Bandwidth Memory)**はAI向けGPUに搭載される超高速メモリで、AI時代の「最重要部品」の一つ
- 市場規模は2025年の約350億ドルから2028年には約1,000億ドルへと急拡大が見込まれる
- SK Hynixがシェア50%超で首位、MicronとSamsungが追う三つ巴の競争構図
- 日本企業ではレゾナック(旧昭和電工)や東京応化工業などHBM製造に欠かせない素材メーカーが恩恵を受ける
HBMとは何か? — AIの「記憶力」を支える超高速メモリ#
AIの学習や推論には膨大なデータを超高速でやり取りする必要があります。NVIDIAのH100やB200といったAI向けGPUが圧倒的な計算能力を持っていても、メモリがボトルネックになればその性能は発揮できません。
そこで登場するのが**HBM(High Bandwidth Memory:高帯域幅メモリ)**です。
従来のDDR5メモリとの違い#
| 項目 | DDR5(通常のメモリ) | HBM3E |
|---|---|---|
| 帯域幅 | 約50GB/s | 1.2TB/s以上 |
| 構造 | 平面実装 | 3D積層(TSVで垂直接続) |
| 消費電力あたりの効率 | 標準 | 約3〜5倍効率的 |
| 用途 | PC・サーバー全般 | AI GPU・HPC専用 |
HBMは複数のDRAMダイ(チップ)を縦に積み重ね、TSV(Through-Silicon Via:シリコン貫通電極)という技術で垂直に接続します。これにより、一般的なDDR5メモリの20倍以上の帯域幅を実現しています。
簡単に言えば、DDR5が「片側1車線の一般道」なら、HBMは「片側20車線の超高速道路」のようなものです。
HBMの世代と進化 — HBM3EからHBM4へ#
HBMは世代を重ねるごとに高速化・大容量化が進んでいます。
各世代の比較#
| 世代 | 帯域幅 | 容量(チップあたり) | 主な採用GPU | 量産時期 |
|---|---|---|---|---|
| HBM2e | 460GB/s | 16GB | A100 | 2020年〜 |
| HBM3 | 819GB/s | 24GB | H100 | 2022年〜 |
| HBM3E | 1.2TB/s | 36GB | H200・B200 | 2024年〜 |
| HBM4 | 2TB/s超 | 48GB以上 | 次世代GPU | 2026年後半〜 |
HBM4は2026年後半から量産が本格化する見通しで、帯域幅は2TB/sを超えると予測されています。さらに「アクティブ・インターポーザ」技術の導入により、メモリとGPUの統合がより密接になります。
三つ巴の覇権争い — SK Hynix・Micron・Samsung#
HBM市場は、世界のDRAM大手3社がしのぎを削る激戦区です。
SK Hynix(韓国)— 圧倒的首位#
- HBM市場シェア50%以上を維持
- NVIDIAのHBM認定テストにいち早く合格
- HBM3EとHBM4の両方を安定供給できる唯一のサプライヤーと評価される
- 2026年も生産能力を大幅に増強中
Micron(米国)— 急速に追い上げ#
- シンガポールに70億ドル規模のHBMパッケージング新工場を建設中(2026年稼働予定)
- HBM市場のTAM(Total Addressable Market)を「2025年の350億ドルから2028年に1,000億ドル」と予測
- 2026年分のメモリ生産はすでに完売という驚異的な需要
Samsung(韓国)— 巻き返しなるか#
- 2024年にはNVIDIAのHBM認定で遅れを取り、シェアが**41%→17%**に急落
- 2026年は生産能力を約50%増強する計画
- HBM3Eの認定取得とHBM4への移行で巻き返しを図る
HBMを支える日本企業 — 「ツルハシ」はここにある#
HBM自体を製造するのは上記の韓国・米国企業ですが、その製造に不可欠な素材や装置を供給しているのは日本企業です。ここが「AIバブルのツルハシ」の真骨頂です。
レゾナック・ホールディングス(4004)#
旧昭和電工マテリアルズ。HBMの3D積層に使われる接合材料やパッケージ基板素材で世界トップクラスのシェアを持ちます。HBM需要の拡大は直接的な追い風です。
東京応化工業(4186)#
半導体製造に使われる**フォトレジスト(感光材)**の大手。HBMの微細な回路パターン形成に不可欠で、TSV加工用の厚膜レジストにも強みがあります。
ディスコ(6146)#
半導体ウエハーの切断・研磨装置で世界シェアトップ。HBMはDRAMダイを極薄に研磨(バックグラインド)してから積層するため、ディスコの装置需要が直接伸びます。
アドバンテスト(6857)#
半導体の**テスト装置(検査装置)**で世界大手。HBMは複数のダイを積層するため、1チップあたりのテスト工程が従来より大幅に増え、テスト装置の需要を押し上げています。
その他の関連企業#
- イビデン(4062):ICパッケージ基板(過去記事で詳しく解説)
- SUMCO(3436)・信越化学(4063):シリコンウエハー(過去記事で詳しく解説)
- 東京エレクトロン(8035):製造装置全般
投資の視点 — HBM関連銘柄をどう考えるか#
なぜHBMは「ツルハシ」なのか#
ゴールドラッシュでツルハシを売った商人が最も確実に儲けたように、AIブームの勝者が誰になろうとも、HBMの需要は増え続けます。
- OpenAIが勝っても、Googleが勝っても、中国のDeepSeekが台頭しても → すべてHBMを必要とする
- AI半導体の世代が変わっても → HBMの需要は世代ごとに増加する
- 2026年分の生産がすでに完売 → 供給不足は当面続く構造的な状況
NISA・長期投資での活用#
HBM関連銘柄は成長性が高い一方、半導体サイクルの影響を受ける点は理解しておく必要があります。
新NISAの成長投資枠で検討する場合:
- 日本株ならレゾナック・ディスコ・アドバンテストあたりが直接的な恩恵を受けやすい
- 米国株なら**Micron(MU)**がHBM成長の恩恵を最も受けやすいポジション
- SK Hynixは韓国株のため、日本の証券口座からはやや買いにくいが、ETF経由でアクセス可能
📌 投資を始めるなら 米国株・日本株の両方に対応し、手数料も業界最安水準の**SBI証券** や 楽天証券 がおすすめです。新NISAの成長投資枠でHBM関連銘柄を長期保有する戦略も有効です。
まとめ — AIの「記憶装置」を制する者が市場を制す#
HBMは、AIブームにおける最も確実な需要増加が見込める部品の一つです。
- 市場規模:2025年の350億ドル → 2028年に1,000億ドル(年平均成長率 約40%)
- 供給構造:SK Hynix・Micron・Samsungの寡占で価格競争が起きにくい
- 日本の強み:素材・装置で世界トップシェアの企業が多数存在
AIが進化すればするほど、より高速で大容量のメモリが必要になります。HBMは「AIの脳」であるGPUに酸素を送る「血管」のような存在。AIバブルが続く限り、この血管の重要性は増し続けるでしょう。
この記事は投資の推奨・助言ではありません。投資判断はご自身の責任でお願いします。
🌹 ローゼのブログでは、AI時代の「ツルハシ銘柄」を毎日解説しています。