AI zal het mondiale technologielandschap in 2026 opnieuw vormgeven, zegt TrendForce
TrendForce heeft 10 belangrijke technologietrends geïdentificeerd die de evolutie van de technologie-industrie in 2026 zullen bepalen. De hoogtepunten van deze bevindingen worden hieronder uiteengezet:
De concurrentie op het gebied van AI-chips neemt toe naarmate vloeistofkoeling wijdverspreid wordt toegepast in datacenters
In 2026 zal de grote vraag naar de bouw van AI-datacenters – aangewakkerd door hogere kapitaaluitgaven door grote Noord-Amerikaanse CSP’s en de opkomst van soevereine cloudprojecten wereldwijd – naar verwachting de leveringen van AI-servers jaar-op-jaar met ruim 20% doen toenemen.
NVIDIA, de toonaangevende naam op het gebied van AI, zal in de toekomst te maken krijgen met sterkere concurrentie. AMD is van plan NVIDIA uit te dagen door zijn MI400 full-rack-oplossing te introduceren, die de GB/VR-systemen van NVIDIA weerspiegelt en gericht is op CSP-klanten. Ondertussen vergroten de grote Noord-Amerikaanse CSP's hun interne ASIC-ontwikkeling. In China hebben geopolitieke spanningen het streven naar technologische zelfvoorziening versneld, waarbij bedrijven als ByteDance, Baidu, Alibaba, Tencent, Huawei en Cambricon hun inspanningen hebben opgevoerd om hun eigen AI-chips te creëren. Dit zal de mondiale concurrentie versterken.
Het thermisch ontwerpvermogen (TDP) per chip neemt snel toe naarmate AI-processors krachtiger worden, van 700 W voor NVIDIA's H100 en H200 naar meer dan 1.000 W voor de komende B200 en B300. Deze toename van de warmteafgifte leidt tot een wijdverbreide toepassing van vloeistofkoelingssystemen in serverracks, waarbij het gebruik naar verwachting in 2026 47% zal bedragen.
Microsoft heeft geavanceerde microfluïdische koeltechnologie op chipniveau geïntroduceerd om de thermische efficiëntie te verbeteren. Op de middellange termijn zal vloeistofkoeling met koude platen de primaire oplossing blijven, waarbij CDU's overstappen van vloeistof-naar-lucht naar vloeistof-naar-vloeistof-opstellingen. Op de lange termijn zal de markt waarschijnlijk evolueren naar een gedetailleerder thermisch beheer op chipniveau.
Bandbreedtebarrières doorbreken: HBM en optische communicatie herdefiniëren AI-clusterarchitecturen
De snelle toename van het datavolume en de behoefte aan geheugenbandbreedte, veroorzaakt door de uitbreiding van de AI-werklast van training tot gevolgtrekking, vormt een uitdaging voor het systeemontwerp door knelpunten in transmissiesnelheid en energie-efficiëntie bloot te leggen. Om deze beperkingen aan te pakken, komen HBM- en optische interconnect-technologieën naar voren als kritische enablers van de volgende generatie AI-architecturen.
De huidige generaties HBM maken gebruik van 3D-stacking en through-silicium via om de afstand tussen processors en geheugen aanzienlijk te verkleinen, waardoor een hogere bandbreedte en efficiëntie wordt bereikt. De komende HBM4-generatie zal een grotere kanaaldichtheid en een grotere I/O-bandbreedte introduceren om de enorme rekenvereisten van AI GPU's en accelerators verder te ondersteunen.
Naarmate modelparameters echter het niveau van een biljoen overschrijden en GPU-clusters exponentieel groeien, komt de geheugenbandbreedte opnieuw naar voren als een belangrijk prestatieknelpunt. Geheugenfabrikanten pakken dit probleem aan door HBM-stack-architecturen te optimaliseren, te innoveren op het gebied van verpakking en interface-ontwerp, en door samen met logica-chips te ontwerpen om de bandbreedte op de chip voor AI-processors te vergroten.
Hoewel deze ontwikkelingen geheugengerelateerde knelpunten verminderen, is datatransmissie tussen chips en modules de volgende kritische beperking voor de systeemprestaties geworden. Om deze beperkingen te overwinnen zijn co-packaged optica (CPO) en siliciumfotonica (SiPh) strategische aandachtsgebieden voor GPU-makers en CSP's.
Momenteel zijn 800G en 1.6T inplugbare optische transceivers al in massaproductie gegaan, en vanaf 2026 zullen naar verwachting SiPh/CPO-platforms met nog hogere bandbreedte in AI-switches worden ingezet. Deze optische communicatietechnologieën van de volgende generatie zullen dataverbindingen met hoge bandbreedte en laag vermogen mogelijk maken, waardoor de algehele bandbreedtedichtheid van het systeem en de energie-efficiëntie worden geoptimaliseerd om te voldoen aan de escalerende prestatie-eisen van de AI-infrastructuur.
Over het geheel genomen evolueert de geheugenindustrie snel in de richting van bandbreedte-efficiëntie als belangrijkste concurrentievoordeel. Vooruitgang op het gebied van optische communicatie – ontworpen om datatransmissie via chips en modules te verwerken – komt naar voren als de meest effectieve oplossing om de beperkingen van traditionele elektrische interfaces bij dataoverdracht met hoge dichtheid over lange afstanden te overwinnen. Als gevolg hiervan zullen hogesnelheidstransmissietechnologieën een belangrijke pijler worden van de evolutie van de AI-infrastructuur.