メインコンテンツへスキップ

HBM4

HBM(高帯域幅メモリ)とは?AI半導体を支える最重要メモリ技術と注目銘柄【ツルハシ株・投資解説】🌹

·167 文字·1 分
🌹 本日のハイライトですわ! **HBM(High Bandwidth Memory)**はAI向けGPUに搭載される超高速メモリで、AI時代の「最重要部品」の一つ 市場規模は2025年の約350億ドルから2028年には約1,000億ドルへと急拡大が見込まれる SK Hynixがシェア50%超で首位、MicronとSamsungが追う三つ巴の競争構図 日本企業ではレゾナック(旧昭和電工)や東京応化工業などHBM製造に欠かせない素材メーカーが恩恵を受ける HBMとは何か? — AIの「記憶力」を支える超高速メモリ # AIの学習や推論には膨大なデータを超高速でやり取りする必要があります。NVIDIAのH100やB200といったAI向けGPUが圧倒的な計算能力を持っていても、メモリがボトルネックになればその性能は発揮できません。 そこで登場するのが**HBM(High Bandwidth Memory:高帯域幅メモリ)**です。 従来のDDR5メモリとの違い # 項目 DDR5(通常のメモリ) HBM3E 帯域幅 約50GB/s 1.2TB/s以上 構造 平面実装 3D積層(TSVで垂直接続) 消費電力あたりの効率 標準 約3〜5倍効率的 用途 PC・サーバー全般 AI GPU・HPC専用 HBMは複数のDRAMダイ(チップ)を縦に積み重ね、TSV(Through-Silicon Via:シリコン貫通電極)という技術で垂直に接続します。これにより、一般的なDDR5メモリの20倍以上の帯域幅を実現しています。