notizia
Notizie di industria
Notizie dell'azienda
Contattaci
Yuyao Yangming Illuminazione Co.,Ltd

Aggiungere: Zona industriale di Minyin, Liangnong

Città, città di Yuyao, provincia di Zhejiang,
ChinaSales

Telefono: 0086-0574-22222345...
Contatta ora
Casa > notizia > Notizie di industria > L’intelligenza artificiale rimodellerà il panorama tecnologico globale nel 2026, afferma TrendForce

L’intelligenza artificiale rimodellerà il panorama tecnologico globale nel 2026, afferma TrendForce

2025-12-01 16:28:16

TrendForce ha identificato 10 tendenze tecnologiche chiave che definiranno l'evoluzione del settore tecnologico nel 2026. I punti salienti di questi risultati sono descritti di seguito:

La competizione sui chip AI si intensifica man mano che il raffreddamento a liquido guadagna un'adozione diffusa nei data center
Nel 2026, si prevede che l’elevata domanda di costruzione di data center IA, alimentata dall’aumento delle spese in conto capitale da parte dei principali CSP nordamericani e dall’aumento dei progetti cloud sovrani in tutto il mondo, aumenterà le spedizioni di server AI di oltre il 20% su base annua.

NVIDIA, oggi il nome leader nel campo dell'intelligenza artificiale, dovrà affrontare una concorrenza più forte in futuro. AMD prevede di sfidare NVIDIA introducendo la sua soluzione full-rack MI400, che rispecchia i sistemi GB/VR di NVIDIA ed è rivolta ai clienti CSP. Nel frattempo, i principali CSP nordamericani stanno aumentando lo sviluppo ASIC interno. In Cina, le tensioni geopolitiche hanno accelerato la spinta verso l’autosufficienza tecnologica, con aziende come ByteDance, Baidu, Alibaba, Tencent, Huawei e Cambricon che stanno intensificando gli sforzi per creare i propri chip AI. Ciò è destinato a intensificare la competizione globale.

La potenza di progettazione termica (TDP) per chip sta aumentando rapidamente man mano che i processori AI diventano più potenti, passando da 700 W per NVIDIA H100 e H200 a oltre 1.000 W per i prossimi B200 e B300. Questo aumento della produzione di calore sta portando a un’adozione diffusa di sistemi di raffreddamento a liquido nei server rack, con un utilizzo previsto che raggiungerà il 47% entro il 2026.

Microsoft ha introdotto una tecnologia avanzata di raffreddamento microfluidico a livello di chip per migliorare l'efficienza termica. Nel breve e medio termine, il raffreddamento a liquido con piastre fredde rimarrà la soluzione principale, con la transizione delle CDU dalle configurazioni liquido-aria a quelle liquido-liquido. Nel lungo termine, è probabile che il mercato si sposti verso una gestione termica più dettagliata a livello di chip.

Infrangere le barriere della larghezza di banda: HBM e le comunicazioni ottiche ridefiniscono le architetture dei cluster AI
Il rapido aumento del volume dei dati e delle esigenze di larghezza di banda della memoria, guidato dall’espansione dei carichi di lavoro dell’intelligenza artificiale dall’addestramento all’inferenza, sta mettendo a dura prova la progettazione del sistema esponendo colli di bottiglia nella velocità di trasmissione e nell’efficienza energetica. Per affrontare queste limitazioni, le tecnologie HBM e di interconnessione ottica stanno emergendo come abilitatori fondamentali delle architetture AI di prossima generazione.

Le attuali generazioni di HBM sfruttano lo stacking 3D e il through-silicon via per ridurre significativamente la distanza tra processori e memoria, ottenendo larghezza di banda ed efficienza più elevate. La prossima generazione HBM4 introdurrà una maggiore densità di canali e una larghezza di banda I/O più ampia per supportare ulteriormente le massicce richieste computazionali delle GPU e degli acceleratori AI.

Tuttavia, poiché i parametri del modello superano il livello di trilioni di scala e i cluster GPU si espandono in modo esponenziale, la larghezza di banda della memoria emerge ancora una volta come un importante collo di bottiglia delle prestazioni. I produttori di memorie stanno affrontando questo problema ottimizzando le architetture degli stack HBM, innovando nel design del packaging e dell'interfaccia e co-progettando con chip logici per migliorare la larghezza di banda su chip per i processori AI.

Sebbene questi progressi riducano i colli di bottiglia legati alla memoria, la trasmissione dei dati tra chip e moduli è diventata la prossima limitazione critica alle prestazioni del sistema. Per superare questi limiti, l’ottica co-packaged (CPO) e la fotonica del silicio (SiPh) stanno emergendo come aree di interesse strategico per i produttori di GPU e i CSP.

Attualmente, i ricetrasmettitori ottici collegabili 800G e 1.6T sono già entrati nella produzione di massa e, a partire dal 2026, si prevede che negli switch AI verranno implementate piattaforme SiPh/CPO con larghezza di banda ancora maggiore. Queste tecnologie di comunicazione ottica di nuova generazione consentiranno interconnessioni di dati a larghezza di banda elevata e a basso consumo, ottimizzando la densità di larghezza di banda complessiva del sistema e l’efficienza energetica per soddisfare le crescenti richieste di prestazioni dell’infrastruttura AI.

Nel complesso, il settore delle memorie si sta rapidamente evolvendo verso l’efficienza della larghezza di banda come principale vantaggio competitivo. I progressi nelle comunicazioni ottiche, progettate per gestire la trasmissione dei dati attraverso chip e moduli, stanno emergendo come la soluzione più efficace per superare i limiti delle interfacce elettriche tradizionali nei trasferimenti di dati a lunga distanza e ad alta densità. Di conseguenza, le tecnologie di trasmissione ad alta velocità sono destinate a diventare un pilastro fondamentale dell’evoluzione delle infrastrutture IA.