.
韓国Samsung Electronics(サムスン電子)と韓国SK hynix(SKハイニックス)が超高速DRAM技術「HBM†」を採用するメモリー世界市場シェアのトップ争いを繰り広げている。もともとは高性能なグラフィック処理向けに開発されたHBMだが、生成AI(人工知能)の需要拡大に伴って、大量のデータを一度に処理できるハイスペックなメモリーが求められるようになったことから、サーバーやデータセンターでHBMのニーズが高まっている。HBMは高性能なだけに一般的なDRAMより6~7倍ほど価格が高く、サムスン電子とSKハイニックスは半導体部門の赤字を改善するためにもHBMに力を入れている。
AIのデータ処理に使うGPU(Graphics Processing Unit、画像処理半導体)にはサーバー向けよりさらに高性能のHBMを搭載する。2023年8月、米NVIDIA(エヌビディア)はAI向けGPU「GH200 Grace Hopper Superchip」をベースにした次世代のNVIDIAプラットフォームを発表したが、このGH200にはSKハイニックスから調達したHBM3eを搭載した。HBM3eメモリーは第5世代に当たり、既存の第4世代HBM3より50%高速という。NVIDIAの「A100」や「H100」といったGPUにもSKハイニックスのHBM3を搭載している。複数の韓国メディアによると、ファブレス半導体メーカーの米AMDが2023年6月に発表したGPU「MI300X」にはサムスン電子やSKハイニックスから調達したHBM3を搭載するとのことだ。
HBMにおいてはサムスン電子よりSKハイニックスの技術力が高いと評価されている。SKハイニックスは2013年に世界初となる第1世代のHBMを開発、2022年6月には第4世代に当たる8層の16GバイトHBM3の量産を開始、2023年4月に12層のHBM3を開発した。一方のサムスン電子は一歩遅れて2015年に第2世代のHBMから本格的な開発に入り、2023年8月時点で12層の24GバイトHBM3のサンプルを顧客に提供している。両社は第5世代に当たるHBM3e、第6世代となるHBM4の量産も準備中で、第5世代のHBM3eをサムスン電子は「HBM3P」、SKハイニックスは「HBM3+」とそれぞれ称している。SKハイニックスは一足早く第5世代のサンプルを顧客に提供していて、サムスン電子は2023年内に公開するとしている。米Micron Technology(マイクロンテクノロジー)も2023年7月26日(現地時間)、8層で24Gバイトを実現した「HBM3 Gen2」のサンプル出荷を開始したと発表したが、韓国内では第1~2世代のHBMから開発を続けている韓国勢の技術には及ばないという声がある。
台湾のリサーチ会社TrendForceによると、2022年末時点でHBMのサプライヤー別世界市場シェアはSKハイニックスが50%で1位、サムスン電子が40%で2位、マイクロンテクノロジーが10%で3位だった。今後のシェア見通しでは、2023年にSKハイニックスが46~49%、サムスン電子が46~49%、マイクロンテクノロジーが4~6%とする。2024年には韓国2社のシェアがさらに拡大して最大95%となり、マイクロンテクノロジーは最大5%のシェアを占めると展望している。TrendForceは世界のHBM需要は2025年まで年平均45%成長を続けると予測している。2022年まではクラウドサーバー向けのHBM2の需要が最も多かったが、2023年以降はAI向けHBM3とさらにハイスペックのHBM3eの需要が拡大するという。
韓国証券業界は、HBMの特需でサムスン電子とSKハイニックスのメモリー事業の実績が大幅に改善するというリポートを出している。背景にあるのは、米Google(グーグル)や米Amazon.com(アマゾン・ドット・コム)がAIサービス強化のために自前のAIチップ開発を進めていること。このチップにHBMを搭載するとなると、サムスン電子かSKハイニックスから調達するしかないからだ。
趙 章恩=(ITジャーナリスト)
(NIKKEI TECH)
2023. 8.
-Original column