ソウル: サムスン電子は、次世代HBM4高帯域幅メモリ製品の供給を2026年第1四半期に開始する予定であると発表した。同社は、AIサーバーやアクセラレータ向けメモリの販売拡大に伴い、HBM4のラインナップには11.7ギガビット/秒の性能を備えた製品も含まれると述べた。サムスンは、HBM4の初期納入先となる顧客名を明らかにしておらず、決算資料では出荷量も公表していない。

サムスンは2025年第4四半期および通期決算で、メモリ事業が四半期売上高と営業利益で過去最高を記録したと発表した。これは、HBM、サーバーDDR5、エンタープライズ向けソリッドステートドライブ(SSD)といった高付加価値製品の売上増加に支えられたものだ。同社は、AIコンピューティングの需要がデータセンターで使用される先進的なメモリとストレージの消費を継続的に押し上げている一方で、供給不足が依然として課題となっていると述べた。
高帯域幅メモリは、従来のDRAMと比較してデータスループットを向上させるために設計された垂直積層型DRAM 技術であり、HBM4はHBM3Eに続く最新世代です。サムスンは決算発表に付随する投資家向けプレゼンテーションで、11.7Gbpsバージョンを含むHBM4の「量産製品」の供給開始を計画しており、AI関連製品の短期的な見通しの一部としてHBM4の「タイムリーな出荷」を挙げました。
AIデータセンターアクセラレータの最大手サプライヤーであるNVIDIAは、複数のシステム構成でHBM4を採用したRubinプラットフォームを発表しました。NVIDIAのVera Rubin NVL72ラックスケールシステムの製品仕様ページには、Rubin GPU 1基あたり20.7テラバイトのHBM4(1,580テラバイト/秒の帯域幅)、および288ギガバイトのHBM4(22テラバイト/秒の帯域幅)が記載されていますが、これらの数値は暫定的なものであり、変更される可能性があると注意喚起されています。
Rubinプラットフォームのメモリ要件
サムスンの決算発表では、AIコンピューティングに関連した先進的な半導体製造およびパッケージングにおける幅広い取り組みについても言及されました。ファウンドリー事業では、第1世代の2ナノメートル製品の量産を開始し、高帯域幅メモリスタックのロジック層に使用される4ナノメートルHBMベースダイ製品の出荷を開始しました。 サムスンは、ロジック、メモリ、先進パッケージング技術を統合することで、最適化されたソリューションを提供していく計画だと述べました。
他の大手メモリメーカーも、HBM4対応に向けたタイムラインを発表しています。SKハイニックスは2025年9月、HBM4の開発と準備を完了し、量産体制を整えたと発表しました。マイクロンは2025年12月の投資家向けプレゼンテーションで、11Gbpsを超える速度のHBM4が、顧客のプラットフォーム立ち上げ計画に沿って、2026年第2四半期に高歩留まりで立ち上げられる予定であると述べました。
競合するHBM4ロードマップ
マイクロンは自社のHBM4プログラムについて説明する中で、HBM4はベースロジックダイとDRAMダイに自社設計・製造の高度なCMOSおよびメタライゼーション技術を採用しており、パッケージングとテスト能力が性能と消費電力の目標達成に不可欠であると指摘した。SKハイニックスは、HBM4を、データセンター運用において帯域幅と電力効率が中心的な要件となる超高性能AI向けに構築された積層メモリの世代進化の一部であると説明している。
サムスンの決算資料では、HBM4の納入スケジュールが特定のAIプロセッサプログラムや顧客展開と関連付けられていません。NVIDIAのRubinに関する発表や公開仕様では、HBM4のサプライヤーが特定されておらず、 NVIDIAはRubinシステムで使用されるHBM4のベンダー割り当てを明らかにしていません。サムスンが決算発表で発表した確定スケジュールによると、HBM4の納入は2026年第1四半期中に開始される予定です。 –コンテンツシンジケーションサービス提供
サムスンがAIブームに備えて第1四半期にHBM4の出荷を目標にするという記事が最初にUAE Gazetteに掲載されました。
