뉴스
산업 뉴스
회사 소식
문의하기
여요양밍조명유한회사

추가: Minyin Industrial Zone, Liangnong

도시, Yuyao 시, 절강성,
중국판매

전화 : 0086-0574-22222345...
지금 연락하십시오
> 뉴스 > 산업 뉴스 > TrendForce는 AI가 2026년 글로벌 기술 환경을 재편할 것이라고 밝혔습니다.

TrendForce는 AI가 2026년 글로벌 기술 환경을 재편할 것이라고 밝혔습니다.

2025-12-01 16:28:16

TrendForce는 2026년 기술 산업의 진화를 정의할 10가지 주요 기술 동향을 확인했습니다. 이러한 조사 결과의 주요 내용은 다음과 같습니다.

액체 냉각이 데이터 센터에서 널리 채택됨에 따라 AI 칩 경쟁이 심화됩니다.
2026년에는 북미 주요 CSP의 자본 지출 증가와 전 세계 소버린 클라우드 프로젝트의 증가로 인해 AI 데이터 센터 구축에 대한 수요가 높아져 AI 서버 출하량이 전년 대비 20% 이상 증가할 것으로 예상됩니다.

오늘날 AI 분야의 선두주자인 NVIDIA는 앞으로 더욱 강력한 경쟁에 직면하게 될 것입니다. AMD는 NVIDIA의 GB/VR 시스템을 미러링하고 CSP 클라이언트를 대상으로 하는 MI400 풀 랙 솔루션을 출시하여 NVIDIA에 도전할 계획입니다. 한편 북미 주요 CSP들은 자체 ASIC 개발을 늘리고 있다. 중국에서는 지정학적 긴장으로 인해 ByteDance, Baidu, Alibaba, Tencent, Huawei 및 Cambricon과 같은 회사가 자체 AI 칩을 만들기 위한 노력을 강화하면서 기술 자급자족에 대한 추진력이 가속화되었습니다. 이는 글로벌 경쟁을 더욱 심화시킬 전망이다.

칩당 열 설계 전력(TDP)은 AI 프로세서가 더욱 강력해짐에 따라 NVIDIA의 H100 및 H200의 700W에서 곧 출시될 B200 및 B300의 1,000W 이상으로 급격하게 증가하고 있습니다. 이러한 열 출력 증가로 인해 서버 랙에 액체 냉각 시스템이 널리 채택되었으며, 사용량은 2026년까지 47%에 이를 것으로 예상됩니다.

Microsoft는 열 효율을 높이기 위해 고급 칩 수준 미세유체 냉각 기술을 도입했습니다. 중기적으로는 냉각판 액체 냉각이 주요 솔루션으로 남을 것이며, CDU는 액체-공기 설정에서 액체-액체 설정으로 전환될 것입니다. 장기적으로 시장은 보다 세부적인 칩 수준의 열 관리 쪽으로 이동할 가능성이 높습니다.

대역폭 장벽 극복: HBM과 광통신, AI 클러스터 아키텍처 재정의
학습에서 추론까지 AI 워크로드가 확장되면서 데이터 볼륨과 메모리 대역폭 요구 사항이 급격히 증가하면서 전송 속도와 전력 효율성에 병목 현상이 발생하여 시스템 설계가 어려워지고 있습니다. 이러한 한계를 해결하기 위해 HBM과 광학 상호 연결 기술이 차세대 AI 아키텍처의 중요한 원동력으로 떠오르고 있습니다.

현재 세대의 HBM은 3D 스태킹과 실리콘 관통 경유를 활용하여 프로세서와 메모리 사이의 거리를 크게 줄이고 더 높은 대역폭과 효율성을 달성합니다. 다가오는 HBM4 세대는 AI GPU 및 가속기의 막대한 컴퓨팅 요구를 더욱 지원하기 위해 더 큰 채널 밀도와 더 넓은 I/O 대역폭을 도입할 것입니다.

그러나 모델 매개변수가 1조 단위 수준을 넘어서고 GPU 클러스터가 기하급수적으로 확장되면서 메모리 대역폭이 다시 한번 주요 성능 병목 현상으로 등장합니다. 메모리 제조업체는 HBM 스택 아키텍처를 최적화하고, 패키징 및 인터페이스 설계를 혁신하고, AI 프로세서의 온칩 대역폭을 향상시키기 위해 로직 칩과 공동 설계함으로써 이 문제를 해결하고 있습니다.

이러한 발전으로 인해 메모리 관련 병목 현상이 완화되는 반면, 칩과 모듈을 통한 데이터 전송은 시스템 성능에 대한 다음으로 중요한 제한 사항이 되었습니다. 이러한 한계를 극복하기 위해 공동 패키지 광학(CPO)과 실리콘 포토닉스(SiPh)가 GPU 제조업체와 CSP의 전략적 초점 영역으로 떠오르고 있습니다.

현재 800G 및 1.6T 플러그형 광트랜시버는 이미 대량 생산에 돌입했으며 2026년부터는 더 높은 대역폭의 SiPh/CPO 플랫폼이 AI 스위치에 배치될 것으로 예상됩니다. 이러한 차세대 광통신 기술은 고대역폭, 저전력 데이터 상호 연결을 가능하게 하고 전체 시스템 대역폭 밀도와 에너지 효율성을 최적화하여 AI 인프라의 증가하는 성능 요구를 충족시킵니다.

전반적으로 메모리 산업은 핵심 경쟁 우위로서 대역폭 효율성을 향해 빠르게 진화하고 있습니다. 칩과 모듈 간의 데이터 전송을 처리하도록 설계된 광통신의 발전은 장거리, 고밀도 데이터 전송에서 기존 전기 인터페이스의 한계를 극복하기 위한 가장 효과적인 솔루션으로 떠오르고 있습니다. 이에 따라 고속 전송 기술은 AI 인프라 진화의 핵심 축이 될 전망이다.