AI が 2026 年に世界のテクノロジー情勢を再構築するとトレンドフォースが語る
TrendForce は、2026 年のテクノロジー業界の進化を定義する 10 の主要なテクノロジー トレンドを特定しました。これらの調査結果のハイライトを以下に概説します。
液体冷却がデータセンターで広く採用されるにつれ、AI チップの競争が激化
2026 年には、北米の主要 CSP による設備投資の増加と世界中のソブリン クラウド プロジェクトの台頭により、AI データセンター建設に対する需要が高まり、AI サーバーの出荷量が前年比 20% 以上増加すると予想されています。
今日の AI のトップ企業である NVIDIA は、今後さらに激しい競争に直面することになります。 AMD は、NVIDIA の GB/VR システムをミラーリングし、CSP クライアントを対象とした MI400 フルラック ソリューションを導入することで、NVIDIA に挑戦する予定です。一方、北米の主要 CSP は社内 ASIC 開発を強化しています。中国では、地政学的緊張により技術自給自足の動きが加速しており、バイトダンス、バイドゥ、アリババ、テンセント、ファーウェイ、キャンブリコンなどの企業が独自のAIチップを開発する取り組みを強化している。これにより、世界的な競争が激化することが予想されます。
AI プロセッサーの高性能化に伴い、チップあたりの熱設計電力 (TDP) は急速に増加しており、NVIDIA の H100 および H200 の 700W から、次期 B200 および B300 では 1,000W 以上にまで跳ね上がっています。この熱出力の増加により、サーバー ラックへの液冷システムの普及が進み、その使用率は 2026 年までに 47% に達すると予想されています。
Microsoft は、熱効率を高めるために、高度なチップレベルのマイクロ流体冷却テクノロジーを導入しました。近期から中期的には、コールドプレート液体冷却が依然として主要なソリューションであり、CDU は液体から空気へのセットアップから液体から液体へのセットアップに移行します。長期的には、市場はより詳細なチップレベルの熱管理に移行する可能性があります。
帯域幅の壁を打ち破る: HBM と光通信が AI クラスター アーキテクチャを再定義する
AI ワークロードのトレーニングから推論までの拡大によって、データ量とメモリ帯域幅のニーズが急速に増加しており、伝送速度と電力効率のボトルネックが顕在化し、システム設計が困難になっています。これらの制限に対処するために、HBM および光インターコネクト テクノロジーが、次世代 AI アーキテクチャの重要な実現要因として台頭しています。
現行世代の HBM は 3D スタッキングとシリコン貫通ビアを活用して、プロセッサとメモリ間の距離を大幅に短縮し、より高い帯域幅と効率を実現します。次期 HBM4 世代では、より高いチャネル密度とより広い I/O 帯域幅が導入され、AI GPU とアクセラレータの膨大な計算需要をさらにサポートします。
しかし、モデル パラメーターが兆スケール レベルを超え、GPU クラスターが指数関数的に拡大するにつれて、メモリ帯域幅が再び大きなパフォーマンスのボトルネックとして浮上します。メモリ メーカーは、HBM スタック アーキテクチャの最適化、パッケージングとインターフェイス設計の革新、ロジック チップとの共同設計によって AI プロセッサのオンチップ帯域幅を強化することで、この問題に取り組んでいます。
これらの進歩によりメモリ関連のボトルネックは軽減されますが、チップやモジュール間のデータ送信がシステム パフォーマンスに対する次の重大な制限となっています。これらの限界を克服するために、GPU メーカーと CSP にとっての戦略的重点分野として、共同パッケージ オプティクス (CPO) とシリコン フォトニクス (SiPh) が浮上しています。
現在、800G および 1.6T のプラガブル光トランシーバーがすでに量産に入っており、2026 年からはさらに高帯域幅の SiPh/CPO プラットフォームが AI スイッチに導入されることが予想されます。これらの次世代光通信テクノロジーは、高帯域幅、低電力のデータ相互接続を可能にし、システム全体の帯域幅密度とエネルギー効率を最適化し、AI インフラストラクチャの高まるパフォーマンス要求に対応します。
全体として、メモリ業界は帯域幅の効率化を競争上の主要な利点として急速に進化しています。チップやモジュール間のデータ伝送を処理するように設計された光通信の進歩は、長距離高密度データ伝送における従来の電気インターフェースの限界を克服する最も効果的なソリューションとして浮上しています。その結果、高速伝送技術は AI インフラストラクチャの進化の重要な柱となるでしょう。