L'IA va remodeler le paysage technologique mondial en 2026, déclare TrendForce
TrendForce a identifié 10 tendances technologiques clés qui définiront l'évolution de l'industrie technologique en 2026. Les points saillants de ces conclusions sont présentés ci-dessous :
La concurrence en matière de puces IA s'intensifie à mesure que le refroidissement liquide gagne en popularité dans les centres de données
En 2026, la forte demande pour la construction de centres de données d'IA, alimentée par l'augmentation des dépenses en capital des principaux CSP nord-américains et la montée en puissance des projets de cloud souverain dans le monde entier, devrait augmenter les livraisons de serveurs d'IA de plus de 20 % d'une année sur l'autre.
NVIDIA, le leader actuel de l’IA, sera confronté à une concurrence plus forte à l’avenir. AMD prévoit de défier NVIDIA en introduisant sa solution full-rack MI400, qui reflète les systèmes GB/VR de NVIDIA et est destinée aux clients CSP. Pendant ce temps, les principaux CSP nord-américains augmentent leur développement interne d'ASIC. En Chine, les tensions géopolitiques ont accéléré la recherche de l’autosuffisance technologique, des entreprises comme ByteDance, Baidu, Alibaba, Tencent, Huawei et Cambricon intensifiant leurs efforts pour créer leurs propres puces d’IA. Cela devrait intensifier la concurrence mondiale.
La puissance thermique de conception (TDP) par puce augmente rapidement à mesure que les processeurs IA deviennent plus puissants, passant de 700 W pour les H100 et H200 de NVIDIA à plus de 1 000 W pour les prochains B200 et B300. Cette augmentation de la production de chaleur conduit à une adoption généralisée des systèmes de refroidissement liquide dans les racks de serveurs, dont l'utilisation devrait atteindre 47 % d'ici 2026.
Microsoft a introduit une technologie avancée de refroidissement microfluidique au niveau de la puce pour améliorer l’efficacité thermique. À court et moyen terme, le refroidissement liquide par plaque froide restera la principale solution, les CDU passant d'une configuration liquide à air à une configuration liquide à liquide. À long terme, le marché est susceptible d’évoluer vers une gestion thermique plus détaillée au niveau des puces.
Briser les barrières de bande passante : HBM et les communications optiques redéfinissent les architectures de cluster d'IA
L'augmentation rapide des besoins en matière de volume de données et de bande passante mémoire, entraînée par l'augmentation des charges de travail d'IA, de la formation à l'inférence, remet en question la conception des systèmes en exposant les goulots d'étranglement en termes de vitesse de transmission et d'efficacité énergétique. Pour remédier à ces limitations, les technologies HBM et d’interconnexion optique apparaissent comme des catalyseurs essentiels des architectures d’IA de nouvelle génération.
Les générations actuelles de HBM exploitent l'empilement 3D et le via silicium pour réduire considérablement la distance entre les processeurs et la mémoire, obtenant ainsi une bande passante et une efficacité plus élevées. La prochaine génération HBM4 introduira une plus grande densité de canaux et une bande passante d’E/S plus large pour prendre en charge davantage les demandes de calcul massives des GPU et des accélérateurs d’IA.
Cependant, à mesure que les paramètres du modèle dépassent le niveau du billion et que les clusters GPU se développent de façon exponentielle, la bande passante mémoire apparaît à nouveau comme un goulot d'étranglement majeur en termes de performances. Les fabricants de mémoire résolvent ce problème en optimisant les architectures de pile HBM, en innovant dans la conception du packaging et de l'interface, et en co-concevant avec des puces logiques pour améliorer la bande passante sur puce pour les processeurs d'IA.
Bien que ces avancées atténuent les goulots d'étranglement liés à la mémoire, la transmission de données entre puces et modules est devenue la prochaine limitation critique des performances du système. Pour surmonter ces limites, l'optique co-packagée (CPO) et la photonique sur silicium (SiPh) sont en train de devenir des domaines stratégiques pour les fabricants de GPU et les CSP.
Actuellement, les émetteurs-récepteurs optiques enfichables 800G et 1,6T sont déjà entrés en production de masse et, à partir de 2026, des plates-formes SiPh/CPO à bande passante encore plus élevée devraient être déployées dans les commutateurs IA. Ces technologies de communication optique de nouvelle génération permettront des interconnexions de données à large bande passante et à faible consommation, optimisant ainsi la densité globale de la bande passante du système et l'efficacité énergétique pour répondre aux exigences croissantes de performances de l'infrastructure d'IA.
Dans l’ensemble, le secteur de la mémoire évolue rapidement vers l’efficacité de la bande passante qui constitue son principal avantage concurrentiel. Les progrès des communications optiques, conçues pour gérer la transmission de données entre puces et modules, apparaissent comme la solution la plus efficace pour surmonter les limites des interfaces électriques traditionnelles dans les transferts de données longue distance et haute densité. En conséquence, les technologies de transmission à grande vitesse sont appelées à devenir un pilier clé de l’évolution des infrastructures d’IA.