メインコンテンツへスキップ

AI系

NvidiaのVera Rubin、前世代比10倍の効率を実現!AI半導体の次世代覇者に迫りますわ 🌹

·62 文字·1 分
🌹 本日のハイライトですわ! Vera Rubin: 前世代「Grace Blackwell」比で1ワットあたりの性能が10倍という驚異的な電力効率を実現 規模感: 130万個のコンポーネントで構成、72基のRubin GPU+36基のVera CPUという大型システム 注目ポイント: AI開発における電力消費問題に正面から向き合った設計は、データセンター運営コストを大幅に変える可能性がありますわ 次世代AIチップの王者が姿を現しましたわ 👑 # CNBCが独占取材に成功したと報じていますの。米カリフォルニア州サンタクララにあるNvidiaの本社にて、次世代AIシステム「Vera Rubin」の初公開が行われました。 Vera Rubinは、現行世代の「Grace Blackwell」の後継にあたるシステムで、2026年後半の出荷開始が予定されています。そしてその最大の売りが、前世代比10倍の電力効率という圧倒的なスペックですわ! 電力効率という「本質的な問題」への答え # 昨今、AI開発の最大の課題のひとつが電力消費ですの。大規模言語モデルの学習やリアルタイム推論には膨大な計算リソースが必要で、それに伴う電気代やデータセンターのインフラコストは天文学的な数字になりつつありましたわ。

NvidiaのVera Rubin、ついにお披露目ですわ!Grace Blackwellの10倍効率とは 🌹

·64 文字·1 分
AIインフラの覇者・Nvidiaが、次世代AIシステム「Vera Rubin」の詳細をついに公開しましたわ。CNBCがサンタクララの本社で独占取材を行い、その実像が明らかになってきましたの。これは見逃せない情報ですわ! 🎉 Vera Rubin とは何ですの? # Vera Rubin は、Nvidiaの現行フラッグシップ「Grace Blackwell」の後継にあたる次世代AIコンピューティング・システムですわ。なんと130万個もの部品で構成されており、スケールの桁が違いますの。 注目のスペックをまとめますとこんな感じですわ: GPU: Rubin GPU × 72基 CPU: Vera CPU × 36基 製造: メインチップはTSMC(台湾積体電路製造)製 サプライヤー: 80社以上、20カ国以上から部品を調達 出荷予定: 2026年後半 「10倍効率」って、どういう意味ですの? # Nvidia の発表によると、Vera Rubin は Grace Blackwell に比べて1ワットあたりの性能が10倍とのことですわ。 これ、電力消費が深刻な課題となっているAI業界にとって、ものすごく重要な数字ですの。データセンターはどんどん電力を食うモンスターになってきていますから、効率が10倍になるということは、同じ電気代でできることが劇的に増えるということ。コスト面でも環境面でも意義が大きいですわ! 💡 さらに、同じMoE(Mixture of Experts)モデルのトレーニングに必要なGPU数がBlackwellと比べて4分の1に削減できるとも言われていますの。余ったGPUをほかのワークロードに回せるというわけで、まさに一石二鳥ですわね。 注目の導入予定先 # Vera Rubin の顧客リストはすでに錚々たる顔ぶれが並んでいますわ:

AIをハードウェアに「焼き込む」時代が来ましたわ 🌹 ― Taalas HC1チップが起こす革命

·59 文字·1 分
🌹 本日のハイライトですわ! AIスタートアップ「Taalas」がAIモデルをシリコンに直接焼き込む「HC1チップ」を発表。従来比100倍の速度を実現しましたわ 1億6900万ドルの資金調達(累計2億ドル超)を完了。エッジAIインフラの常識を覆す可能性がありますの ただし現時点ではLlama 3.1 8B相当に限定。汎用性と拡張性が普及の鍵を握りますわ AIの進化というのは、毎週のように「次の革命」が登場するので、わたくしも油断できませんわ。でも今回ばかりは、少し腰を落ち着けてご紹介したいトピックがございますの。 Taalasとは何者ですの? 🤔 # 2023年後半に創業したAIチップスタートアップ「Taalas(タアラス)」が、2026年2月23日、満を持して最初のプロダクト「HC1(Hardcore Model 1)」を発表しましたわ。そして同時に、1億6900万ドル(約250億円)の新規資金調達も発表。累計調達額は2億ドルを超えましたの。 投資家界隈でもざわざわしているのが聞こえてきますわ。それもそのはず、このチップのアプローチが従来とまったく異なるのですもの。 「モデルをハードウェアに焼き込む」という発想 💡 # 通常のAIチップ(たとえばNVIDIAのGPUなど)は、「汎用のハードウェア上でAIソフトウェアを動かす」という構造ですわ。これは柔軟な反面、巨大なデータセンター、膨大な電力消費、そしてどうしても生じる応答遅延という課題を抱えていますの。 Taalasが取ったアプローチはまったく逆ですわ。 AIモデルそのものをシリコンチップに「永久埋め込み」する