<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Micron on</title><link>https://rozenmaier.com/tags/micron/</link><description>Recent content in Micron on</description><generator>Hugo -- gohugo.io</generator><language>ja</language><copyright>© 2026 ローゼンマイヤー</copyright><lastBuildDate>Mon, 09 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://rozenmaier.com/tags/micron/index.xml" rel="self" type="application/rss+xml"/><item><title>HBM（高帯域幅メモリ）とは？AI半導体を支える最重要メモリ技術と注目銘柄【ツルハシ株・投資解説】🌹</title><link>https://rozenmaier.com/posts/2026-03-09-hbm-high-bandwidth-memory-ai-infrastructure-stocks/</link><pubDate>Mon, 09 Mar 2026 00:00:00 +0000</pubDate><guid>https://rozenmaier.com/posts/2026-03-09-hbm-high-bandwidth-memory-ai-infrastructure-stocks/</guid><description>&lt;div class="not-prose flex flex-col rounded-xl border-2 border-primary-400 dark:border-primary-600 overflow-hidden my-8 shadow-lg">
 &lt;div class="flex items-center gap-2 px-6 py-4 bg-primary-100 dark:bg-primary-900 border-b-2 border-primary-400 dark:border-primary-600">
 &lt;span class="text-xl">🌹&lt;/span>
 &lt;span class="font-bold text-primary-700 dark:text-primary-300 text-base">本日のハイライトですわ！&lt;/span>
 &lt;/div>
 &lt;div class="px-8 py-6 bg-white dark:bg-neutral-900">
 &lt;ul class="space-y-4 text-[0.95rem] leading-loose text-neutral-700 dark:text-neutral-300 list-disc pl-6">
 &lt;ul>
&lt;li>**HBM（High Bandwidth Memory）**はAI向けGPUに搭載される超高速メモリで、AI時代の「最重要部品」の一つ&lt;/li>
&lt;li>市場規模は&lt;strong>2025年の約350億ドルから2028年には約1,000億ドル&lt;/strong>へと急拡大が見込まれる&lt;/li>
&lt;li>&lt;strong>SK Hynix&lt;/strong>がシェア50%超で首位、&lt;strong>Micron&lt;/strong>と&lt;strong>Samsung&lt;/strong>が追う三つ巴の競争構図&lt;/li>
&lt;li>日本企業では&lt;strong>レゾナック（旧昭和電工）&lt;strong>や&lt;/strong>東京応化工業&lt;/strong>などHBM製造に欠かせない素材メーカーが恩恵を受ける&lt;/li>
&lt;/ul>

 &lt;/ul>
 &lt;/div>
&lt;/div>


&lt;h2 class="relative group">HBMとは何か？ — AIの「記憶力」を支える超高速メモリ
 &lt;div id="hbmとは何か--aiの記憶力を支える超高速メモリ" class="anchor">&lt;/div>
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none">
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#hbm%e3%81%a8%e3%81%af%e4%bd%95%e3%81%8b--ai%e3%81%ae%e8%a8%98%e6%86%b6%e5%8a%9b%e3%82%92%e6%94%af%e3%81%88%e3%82%8b%e8%b6%85%e9%ab%98%e9%80%9f%e3%83%a1%e3%83%a2%e3%83%aa" aria-label="アンカー">#&lt;/a>
 &lt;/span>
 
&lt;/h2>
&lt;p>AIの学習や推論には膨大なデータを超高速でやり取りする必要があります。NVIDIAの&lt;strong>H100&lt;/strong>や&lt;strong>B200&lt;/strong>といったAI向けGPUが圧倒的な計算能力を持っていても、メモリがボトルネックになればその性能は発揮できません。&lt;/p>
&lt;p>そこで登場するのが**HBM（High Bandwidth Memory：高帯域幅メモリ）**です。&lt;/p>

&lt;h3 class="relative group">従来のDDR5メモリとの違い
 &lt;div id="従来のddr5メモリとの違い" class="anchor">&lt;/div>
 
 &lt;span
 class="absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none">
 &lt;a class="text-primary-300 dark:text-neutral-700 !no-underline" href="#%e5%be%93%e6%9d%a5%e3%81%aeddr5%e3%83%a1%e3%83%a2%e3%83%aa%e3%81%a8%e3%81%ae%e9%81%95%e3%81%84" aria-label="アンカー">#&lt;/a>
 &lt;/span>
 
&lt;/h3>
&lt;table>
 &lt;thead>
 &lt;tr>
 &lt;th>項目&lt;/th>
 &lt;th>DDR5（通常のメモリ）&lt;/th>
 &lt;th>HBM3E&lt;/th>
 &lt;/tr>
 &lt;/thead>
 &lt;tbody>
 &lt;tr>
 &lt;td>帯域幅&lt;/td>
 &lt;td>約50GB/s&lt;/td>
 &lt;td>&lt;strong>1.2TB/s以上&lt;/strong>&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>構造&lt;/td>
 &lt;td>平面実装&lt;/td>
 &lt;td>&lt;strong>3D積層（TSVで垂直接続）&lt;/strong>&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>消費電力あたりの効率&lt;/td>
 &lt;td>標準&lt;/td>
 &lt;td>&lt;strong>約3〜5倍効率的&lt;/strong>&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>用途&lt;/td>
 &lt;td>PC・サーバー全般&lt;/td>
 &lt;td>&lt;strong>AI GPU・HPC専用&lt;/strong>&lt;/td>
 &lt;/tr>
 &lt;/tbody>
&lt;/table>
&lt;p>HBMは複数のDRAMダイ（チップ）を&lt;strong>縦に積み重ね&lt;/strong>、TSV（Through-Silicon Via：シリコン貫通電極）という技術で垂直に接続します。これにより、一般的なDDR5メモリの&lt;strong>20倍以上&lt;/strong>の帯域幅を実現しています。&lt;/p></description></item></channel></rss>