본문 바로가기
생각 정리

JP모건 TMT ㅡ HBM4·CoWoS·N3 쇼티지 심화 및 Rubin·TPU 중심의 공급망 재편

by 위즈올마이티 2025. 11. 26.
728x90
728x90

JP모건 TMT ㅡ HBM4·CoWoS·N3 쇼티지 심화 및 Rubin·TPU 중심의 공급망 재편

□ 3줄 요약 1. 글로벌 AI 인프라 수요는 2026~2027년까지 구조적 고성장 구간에 진입했고, 파운드리·Co...

blog.naver.com



□ 3줄 요약


1. 글로벌 AI 인프라 수요는 2026~2027년까지 구조적 고성장 구간에 진입했고, 파운드리·CoWoS·HBM은 이미 쇼티지 상태에 고착되는 흐름임


2. 시장 중심은 엔비디아 Rubin과 구글 TPU로 이동하며, L10 모델 전환이 서버 ODM·패키징·냉각 생태계를 새롭게 재편하는 핵심 변수로 작용 중


3. 메모리·기판·수동소자·액냉 인프라는 모두 AI 수요에 밀려 구조적 상향 사이클에 들어갔고, 인퍼런스 기반 DRAM 수요 비중이 장기적으로 확대될 가능성 있음



□ AI 인프라 수요의 대세 흐름: 26~27년까지 과열 지속


JP Morgan Global TMT Conference에서 가장 명확하게 드러난 메시지는


AI 인프라 수요가 2026~2027년까지 선형이 아닌 구조적 확장 국면에 있다는 점임


글로벌 CSP의 AI 관련 capex는 일부 하우스 기준으로 2026년에 약 30~40%대 증가가 예상되며,


최근 수개월 동안 수GW 규모 데이터센터 전력 계약과 대형 서버 발주가 동시에 나오면서 공급망은 오히려 더 압축되는 중임


기업들은 AI 생태계의 자금조달 리스크를 거의 우려하지 않는 모습을 보였고,


실제로 2026년 물량의 대부분은 미국 중심의 Tier-1 CSP에서 이미 사실상 확정되어 있는 구조임


따라서 2026~2027년 수요 가시성은 높은 수준이며,


이 구간에서 “수요 둔화”가 아닌 “공급 확장 속도”가 핵심 제약으로 작용하는 구도임


지역별로는 미국이 엔비디아와 구글 중심으로 램프를 이끌고 있고,


중국은 GPU 제약 속에서 ASIC·DDR5·HBM3 국산화에 속도를 내고 있음


한국·대만은 HBM·N3·CoWoS 중심으로 풀가동 체제가 유지되면서 글로벌 AI 공급망의 심장 역할을 하고 있음


결과적으로 수요는 랙 단위에서 파운드리·CoWoS·HBM으로 이어지는 전 공급망 병목을 강화하고 있으며,


이 구조는 2027년까지 쉽게 풀리지 않을 것으로 보임


□ Rubin·TPU 중심의 공급망 재편과 L10 시대


2026년 AI 시장의 중심은 엔비디아 Rubin과 구글 TPU(Ironwood 계열)임


두 플랫폼은 최근 몇 달 동안 생산 계획과 물량 전망이 잇달아 상향되었고,


공급망 기업들은 Rubin–TPU 체제를 향후 1~2년간 핵심 성장 축으로 보고 있음


TPU가 강한 성장을 보이는 이유는 단순 성능 경쟁이 아니라 대규모 인퍼런스 기준 TCO 우위임


구글은 자체 전력·랙 구조에 맞춘 ASIC 최적화를 통해 GPU 대비 발열·전력 효율을 개선했고,


이는 대량 추론을 수행하는 CSP에게 직접적인 비용 절감 효과를 주는 구조임


엔비디아는 Rubin부터 L10 완제품 서버 모델을 강화하며 공급망 통제력을 한 단계 끌어올리고 있음


기존 L6(모듈) 중심 생태계는 L10 전환으로 ODM 구도가 상위 소수 업체로 집중될 가능성이 높고,


전력·냉각·커넥터·테스트 장비에 이르기까지 인증 부담이 커지면서 진입장벽이 전체적으로 상승하는 구조임


한편 메타·OpenAI 등 일부 CSP는 독자 ASIC 개발을 진행 중이나,


실제 R&D·생산 캐파는 Rubin·TPU가 최우선으로 배정되는 흐름이라 가시성은 제한적임


결국 2026~2027년 글로벌 AI 가속기 시장은 Rubin–TPU 이원 구도가 주도하는 방향으로 굳어지고 있음


□ 메모리·기판·수동소자 가격 사이클과 기술적 병목


AI 수요가 기존 IT 수요를 밀어내는 크라우딩 아웃 현상은 이미 명확하게 현실화되고 있음


DRAM·NAND·NOR 가격은 2024~2025년 저점 대비 뚜렷한 반등을 보였고,


2026년 초에는 OSAT·ABF 기판·MLCC 등 고부가 수동소자까지 가격 인상이 확산될 가능성이 높다는 전망이 나옴


특히 ABF 기판은 층수 증가와 패턴 복잡도 확대로 리드타임이 50주 이상으로 늘어났고,


전력 공급 구조가 고도화되면서 고온·고전압 대응 MLCC 수요가 폭등하는 중임


이는 단순한 수요 증가가 아니라 기술 난이도가 높아져 발생하는 구조적 병목임


HBM4는 기술적 허들이 한층 더 높은 세대로


인터포저 면적 증가, 패키징 공정 시간 증가, 수율 관리 부담 확대, 고전력 설계로 액냉 기반 구조 필요로 메모리 수요 구조도 빠르게 재편되고 있음


JP Morgan은 토큰 단위 메모리 이코노믹스 기준으로


장기적으로 인퍼런스 구간의 DRAM 수요가 트레이닝 대비 수배 이상 커질 수 있다고 분석함


이는 개별 GPU의 메모리 사용량이 아니라, 서비스 전체 생태계에서 인퍼런스 트래픽이 더 큰 비중을 차지하기 때문에 발생하는 흐름임


DRAM WSPM CAGR은 2028년 약 +15%로 세 배 가까이 증가할 전망이며,


메모리 capex는 2026~2027년에 한 자릿수에서 10%대 중반 수준의 증가가 예상됨


HBM4는 HBM3E 대비 약 35% 가격 프리미엄을 받을 가능성이 제기되고 있으며,


이는 DRAM 업체들의 장기 ASP와 수익성 개선에 직접적으로 기여할 것으로 보임


결과적으로 메모리–기판–수동소자–패키징 전반이 AI 중심으로 재편되는 구조가 형성되고 있음


□ 마무리하며 ㅡ 액냉·액침 전환과 부품·소재 생태계 확장


AI 서버 전력 밀도는 빠르게 증가하고 있으며, 글로벌 CSP들은 2026년 하반기부터 본격적인 액냉·액침 전환을 검토하고 있음


일부 데이터센터는 이미 차세대 AI 서버 설계를 액냉 기반으로 확정한 상태로 알려져 있음


액냉 확산은 냉각 장치뿐 아니라 마이크로채널, 쿨링 플레이트, 펌프, 실링 소재,


파워·냉각 전용 커스텀 ASIC, 액냉 모듈 검사장비까지 전방위적인 TAM 확장을 이끌고 있음


CSP마다 설계가 다르고 커스텀 비중이 높기 때문에 ASP가 자연스럽게 상승하는 구조도 만들어지고 있음


지역별로는


미국: Rubin·TPU 중심 액냉 전환 가속


중국: 전력 인프라 제약 속 국산 액냉 솔루션 개발 병행


대만·한국: 액냉 부품·검증 장비 중심으로 수요 확대


액냉·액침 전환은 AI 서버 전체 BOM 확대의 구조적 요인이며, 2026~2028년 AI 인프라 성장 사이클의 또 다른 핵심이 되고 있음

728x90
728x90

댓글