본문 바로가기
종목 이야기

젠슨 황 “가장 비싸지만 가장 싸다” ㅡ 엔비디아 블랙웰·루빈 사상 최대 주문

by 위즈올마이티 2025. 10. 29.
728x90
728x90

젠슨 황 “가장 비싸지만 가장 싸다” ㅡ 엔비디아 블랙웰·루빈 사상 최대 주문

□ 3줄 요약 1. NVIDIA가 차세대 AI 칩 아키텍처 ‘블랙웰(Blackwell)’과 ‘루빈(Rubin)’에 대...

blog.naver.com



□ 3줄 요약


1. NVIDIA가 차세대 AI 칩 아키텍처 ‘블랙웰(Blackwell)’과 ‘루빈(Rubin)’에 대해 향후 수분기 내 약 5,000억 달러(740조 원) 규모의 주문 가시성(bookings visibility)을 확보했다고 밝힘


2. 이는 GPU뿐 아니라 서버·네트워킹·클라우드 플랫폼까지 포함된 AI 팩토리 생태계형 수주로, 기술 기업 역사상 최대 규모


3. 젠슨 황 CEO는 “가장 비싼 컴퓨터지만, 가장 저렴한 비용으로 토큰을 만든다”며 AI 인프라 효율(TCO) 중심 경쟁에서 NVIDIA의 절대 우위를 강조함



□ 블랙웰·루빈, AI 인프라의 중심으로


NVIDIA가 다시 한 번 AI 산업의 무게중심을 이동시켰습니다.


젠슨 황 CEO는 최근 “블랙웰과 루빈 제품군을 포함해 향후 5~6개 분기 동안 약 5,000억 달러 규모의 주문 가시성을 확보했다”고 밝혔습니다.


이는 단순 매출 예측이 아니라 확정 계약에 기반한 가시적 주문 규모(bookings visibility)로, 기술 업계 역사상 가장 큰 수준입니다.


이전 세대 호퍼(Hopper) 아키텍처가 전체 주기 동안 약 수백만 개 GPU를 출하한 데 비해,


블랙웰과 루빈 세대는 이미 주요 고객들(OpenAI, Microsoft, Google, Meta, Oracle 등)을 중심으로


수백만~수천만 단위의 GPU 예약 및 계약이 진행 중인 것으로 알려졌습니다.


이번 주문에는 GPU뿐 아니라 Grace CPU, NVLink 스위치, DGX 서버, DGX Cloud 구독형 서비스까지 포함되어 있습니다.


즉, NVIDIA는 개별 칩 공급을 넘어 AI 팩토리 전체 생태계를 제공하는 플랫폼 기업으로 진화하고 있습니다.


□ “가장 비싸지만 가장 효율적이다”


젠슨 황은 블랙웰 발표 당시 이렇게 말했습니다.


“It’s the most expensive computer ever built, but it’s the cheapest to generate a token.”
(가장 비싼 컴퓨터이지만, 토큰 하나를 생성하는 데 가장 저렴하다.)


이 발언은 AI 경쟁의 본질이 ‘속도’가 아닌 비용 대비 효율, 즉 토큰당 연산비용(TCO) 이라는 점을 명확히 짚은 말입니다.


블랙웰은 기존 호퍼(Hopper) 대비 전력·비용 효율을 수십 배 개선하며,


AI 학습·추론 환경의 총소유비용(TCO)을 획기적으로 낮췄습니다.


특히 그레이스 블랙웰(GB200) 시스템은 GPU와 CPU를 통합 설계해 학습과 추론 모두에서 전력 효율을 극대화했습니다.


젠슨 황이 말한 “가장 비싸지만 가장 싸다”는 말은 바로 이 효율 중심의 패러다임 전환을 의미합니다.


AI 기업들에게 있어 연산 효율은 곧 수익성과 직결되기 때문입니다.


□ 루빈의 진화와 NVIDIA의 독주


블랙웰의 뒤를 잇는 루빈(Rubin) 은 2026년 하반기 본격 양산이 예정되어 있습니다.


HBM4 메모리, 차세대 3D 패키징, NVLink 6세대 인터커넥트가 적용될 것으로 알려졌으며,


전력 효율과 메모리 대역폭이 모두 대폭 향상될 전망입니다.


루빈은 단순 성능 계승이 아니라, 데이터센터의 냉각·전력 한계를 해결하고


대규모 AI 모델 확장을 지원하는
차세대 전력 혁신형 GPU로 평가받고 있습니다.


흥미로운 점은, 아직 출시되지 않은 루빈조차 대형 클라우드 기업들의 선주문이 시작되었다는 점입니다.


이 물량은 NVIDIA의 2025~2027 회계연도 매출로 순차 반영될 것으로 전망됩니다.


경쟁 구도에서 AMD의 MI300, Intel의 Gaudi3 등도 주목받지만,


대부분의 AI 파이프라인이 NVIDIA CUDA·TensorRT·NVLink·DGX Cloud 생태계에 맞춰 구축되어 있습니다.


즉, 하드웨어 성능보다 생태계 종속성(lock-in)이 더 큰 경쟁 장벽이 되고 있으며,


현재 AI 연산 인프라의 90% 이상이 NVIDIA 플랫폼 위에서 돌아가고 있습니다.


□ 5,000억 달러의 의미와 투자 인사이트


이번 발표의 핵심은 ‘규모’보다 ‘구조’입니다.


AI 인프라 수요가 단기 유행이 아니라, 전력망·통신망급 장기 인프라 산업으로 고착화되고 있다는 신호입니다.


글로벌 클라우드 기업들은 이미 3~5년 단위 GPU 공급 계약을 체결하고 있습니다.


이는 AI가 단순 서비스가 아닌 국가급 설비 인프라로 발전하고 있음을 보여줍니다.


젠슨 황의 표현처럼, AI 팩토리는 “전기를 먹고 생각을 만들어내는 공장”이며, 그 중심에 NVIDIA가 존재합니다.


월가의 반응도 명확합니다.


모건스탠리는 “NVIDIA의 5,000억 달러 주문 가시성은 단기 실적보다 산업 구조 변화의 상징”이라 평가했고,


골드만삭스는 “루빈 출시 전까지 분기당 매출 성장률이 20% 이상 유지될 것”으로 전망했습니다.


물론 공급망 병목과 데이터센터 전력 인프라 부족은 여전히 주요 변수입니다.


HBM 생산량, TSMC 패키징 캐파, 냉각 효율 등 현실적 제약이 매출 전환 속도를 결정할 것입니다.


그럼에도 NVIDIA는 하드웨어·소프트웨어·클라우드를 모두 아우르는


AI 인프라 수직 통합 플랫폼 기업으로 진화하고 있습니다.


이는 단순 GPU 매출이 아닌, AI 경제의 ‘기초 설비 투자’로서의 패러다임 변화를 의미합니다.


□ 마무리하며


NVIDIA는 이제 GPU 제조사를 넘어, AI 시대의 전력 공급자이자 인프라의 심장으로 자리 잡았습니다.


5,000억 달러라는 주문 가시성은 하나의 숫자가 아니라 AI 산업 패러다임 전환의 선언문입니다.


블랙웰과 루빈, 그리고 젠슨 황의 비전은 인류의 새로운 ‘전기’, 즉 AI 인프라 문명의 토대를 세우고 있습니다.

728x90
728x90

댓글