[엔비디아③] 반도체 한 장 파는 시대 끝났다, 젠슨 황이 통째로 내놓은 'AI 전용 공장'

루빈은 GPU가 아니라 '시스템'이다… 인텔과 AMD가 뒷걸음질 칠 수밖에 없는 엔비디아의 무서운 설계도

2026-03-20     최기형 기자
사진=더밀크, K trendy NEWS DB ⓒ케이 트렌디뉴스 무단전재 및 수집, 재배포금지

[KtN 최기형기자]GTC 2026 무대에서 엔비디아가 내놓은 차세대 주력 제품은 루빈이었다. 겉으로만 보면 블랙웰 다음에 놓이는 새 그래픽처리장치 발표처럼 보였다. 그러나 발표 방식은 예전과 달랐다. 엔비디아는 루빈을 새 칩 한 장으로 설명하지 않았다. CPU와 네트워크, 저장장치, 랙 단위 시스템까지 한꺼번에 묶은 플랫폼으로 내놨다. 칩 발표라기보다 데이터센터 설계도를 공개하는 장면에 가까웠다. 엔비디아가 지금 시장에 내놓는 상품이 무엇인지 보여주는 대목이기도 했다. 더 빠른 반도체 하나가 아니라, AI를 학습시키고 추론시키고 배포하는 공장 한 동을 통째로 파는 쪽으로 사업의 무게가 옮겨갔다는 뜻이다.

이 변화는 말보다 숫자에서 먼저 읽힌다. 엔비디아의 2026회계연도 데이터센터 매출은 1937억달러였다. 연간 전체 매출 2159억달러 가운데 대부분이 데이터센터에서 나왔다. 4분기 데이터센터 매출만 623억달러였다. 시장은 이미 엔비디아를 게임 칩 회사로 보지 않는다. 대형 클라우드 사업자와 AI 모델 업체, 각국의 설비투자 계획이 매출로 가장 먼저 찍히는 데이터센터 공급자로 본다. GTC 2026에서 루빈을 설명하는 방식도 거기에 맞춰 바뀌었다. 그래픽카드 한 장의 성능표를 들고 나오는 시대는 지나갔다. 전력, 냉각, 메모리, 네트워크, 저장장치, 운영도구까지 함께 짜 맞춘 시스템을 누가 더 잘 공급하느냐가 경쟁의 중심으로 올라왔다.

루빈 발표에서 가장 눈에 띄는 부분은 구조였다. 엔비디아는 루빈을 차세대 GPU 제품군으로 소개하는 데서 멈추지 않았다. 베라 CPU, NV링크, 블루필드 DPU, 스펙트럼 네트워크 스위치, 저장장치 인프라를 한 줄로 세워 설명했다. AI 데이터센터를 짓는 고객에게 필요한 것은 계산칩 하나가 아니다. 학습과 추론을 돌릴 GPU, 데이터 흐름을 제어할 CPU, 네트워크를 다룰 스위치, 보안과 데이터 이동을 맡는 DPU, 엄청난 분량의 데이터를 받아낼 저장 인프라가 함께 들어간다. 엔비디아는 그 묶음을 자사 이름 아래로 정리해 내놓았다. 지금 시장에서 가장 비싼 물건은 반도체 단품이 아니라, 거대한 데이터센터를 실제로 돌아가게 만드는 조립과 연결의 능력이라는 점을 누구보다 빨리 반영한 셈이다.

블랙웰 시대의 핵심이 대규모 학습 수요였다면, 루빈 시대의 핵심은 운영과 추론 쪽으로 더 기울어 있다. 엔비디아가 발표에서 반복해서 꺼낸 표현도 속도 하나가 아니라 비용과 처리량, 지연시간이었다. 질문 하나에 답하는 모델 하나를 잘 돌리는 수준으로는 이제 시장을 설명하기 어렵다. 실제 현장에서는 긴 문맥을 읽고, 외부 도구를 호출하고, 다른 AI와 결과를 주고받는 일이 동시에 벌어진다. 같은 요청을 놓고 에이전트 여러 개가 나눠 움직이는 구조가 늘면 필요한 것은 최고 성능 GPU 한 장이 아니다. 데이터를 오래 붙들 메모리, 통신 병목을 줄이는 네트워크, 중간 결과를 받아낼 저장장치, 이를 조율하는 CPU까지 빠짐없이 맞물려야 한다. 루빈을 중심으로 묶인 플랫폼은 그 운영 장면을 겨냥했다.

엔비디아가 루빈을 앞세우며 토큰당 비용 절감을 거듭 강조한 배경도 여기에 있다. AI 시장 초기에는 누가 더 큰 모델을 먼저 훈련시키느냐가 중요했다. 지금은 모델을 실제 서비스에 올려 얼마나 오래, 얼마나 싸게, 얼마나 많은 요청을 처리하느냐가 더 큰 문제다. 학습은 한 번 끝나도 운영은 끝나지 않는다. 이용자가 늘면 비용이 계속 붙고, 응답이 늦어지면 서비스 경쟁력은 곧바로 떨어진다. 질문 하나에 에이전트 여러 개가 붙는 구조가 자리 잡으면 계산은 더 복잡해진다. 엔비디아가 루빈을 새 GPU로만 설명하지 않고 공장급 시스템으로 소개한 이유가 여기 있다. 비용을 낮추고 처리량을 높이고 병목을 줄여야 고객이 AI 서비스를 더 넓게 붙일 수 있기 때문이다.

사진=더밀크, K trendy NEWS DB ⓒ케이 트렌디뉴스 무단전재 및 수집, 재배포금지

베라 CPU도 같은 흐름 안에서 봐야 한다. 예전 엔비디아를 떠올리면 회사의 중심은 언제나 GPU였다. CPU는 조력자에 가까웠다. GTC 2026에서는 위치가 달라졌다. 베라 CPU는 별도 랙 단위 제품으로 소개될 만큼 비중이 커졌다. 이유는 간단하다. 에이전트 운영과 추론 서비스가 커질수록 GPU만 빨라서는 충분하지 않기 때문이다. 데이터베이스를 열고 닫고, 툴을 호출하고, 코드 컴파일과 스크립트 실행을 처리하고, 대량 요청을 스케줄링하는 과정에는 CPU 역할이 크다. AI 산업이 학습 위주였을 때는 GPU가 거의 모든 스포트라이트를 가져갔다. 운영 중심 시장에서는 병목이 더 다양해진다. 엔비디아가 CPU를 전면에 세운 것은 반도체 포트폴리오를 넓힌다는 차원을 넘어, AI 공장 전체를 자기 손으로 설계하겠다는 선언에 가깝다.

블루필드와 스펙트럼이 발표에서 빠지지 않은 이유도 같은 맥락이다. 네트워크는 오랫동안 반도체 기사에서 주변부 취급을 받았다. 그러나 대규모 AI 데이터센터에서는 이야기가 달라진다. 모델 크기가 커지고 에이전트 수가 늘어나면 네트워크 병목이 성능을 좌우한다. 서버 안에서 계산이 빨라도 서버끼리 데이터가 오가는 속도가 받쳐주지 않으면 처리량이 무너진다. 저장장치에서 데이터를 끌어오는 속도가 늦어도 문제가 생긴다. 엔비디아는 블루필드 DPU와 스펙트럼 스위치를 함께 세워 “계산은 잘하는데 데이터가 못 따라오는” 상황을 막겠다는 쪽으로 설명을 붙였다. AI 데이터센터를 반도체 집합이 아니라 물류 시스템처럼 보기 시작한 셈이다. 데이터가 들어오고, 계산되고, 저장되고, 다시 나가는 흐름이 병목 없이 돌아가야 전체 공장 효율이 올라간다.

저장장치 발표도 마찬가지다. 기존 AI 기사에서 저장장치는 대개 조연이었다. 모델을 훈련할 데이터가 많다는 말은 자주 나왔지만, 저장 인프라가 직접 주인공으로 올라오는 경우는 드물었다. 이번 GTC에서 엔비디아는 AI 네이티브 스토리지 인프라를 별도 항목으로 내세웠다. 추론과 에이전트 운영이 커질수록 저장장치의 성격도 바뀌기 때문이다. 학습 데이터만 쌓아 두는 창고가 아니라, 긴 문맥과 중간 결과, 작업 이력, 검색 데이터, 기업 내부 문서를 빠르게 주고받는 핵심 설비가 된다. 문서를 읽는 에이전트, 코드를 검사하는 에이전트, 고객 데이터를 확인하는 에이전트가 동시에 움직이면 저장장치는 뒤편 지원 설비가 아니라 생산라인 그 자체가 된다. 엔비디아는 이 점을 반영해 GPU 옆에 저장 인프라를 올렸다.

DSX AI 팩토리 참조 설계가 함께 나온 것도 눈여겨볼 부분이다. 보통 반도체 회사는 제품을 팔고 나면 고객이 각자 시스템을 짠다. 엔비디아는 여기서 한 걸음 더 들어갔다. 고객이 AI 데이터센터를 어떻게 지어야 하는지, 어떤 랙과 네트워크 구성이 적절한지, 운영은 어떤 식으로 돌아가야 하는지까지 참조 설계 형태로 제시했다. 칩 공급자를 넘어 설계 가이드까지 쥔 셈이다. 이런 방식은 엔비디아 입장에서 여러 이점이 있다. 첫째, 고객의 도입 시간을 줄인다. 둘째, 자사 장비와 소프트웨어를 자연스럽게 묶어 팔 수 있다. 셋째, 데이터센터가 표준화될수록 이후 증설 수요도 자기 생태계 안에 붙잡아 두기 쉽다. 설계도까지 손에 쥔 공급자는 가격표만 내미는 공급자보다 훨씬 강하다.

옴니버스 기반 AI 팩토리 시뮬레이션 청사진도 같은 방향에서 읽힌다. 데이터센터는 이제 건물 한 채 안에 서버를 채워 넣는 작업이 아니다. 전력 공급, 냉각, 네트워크 흐름, 랙 배치, 장애 대응, 유지보수 동선까지 미리 계산해야 한다. AI 데이터센터가 커질수록 설계 실수의 비용이 커지기 때문이다. 엔비디아는 물리 데이터센터를 짓기 전에 가상 공간에서 먼저 돌려보는 방식을 밀고 있다. 제조업이 공장 설계에 디지털 트윈을 쓰듯, AI 데이터센터도 시뮬레이션으로 미리 짜 보자는 계산이다. 반도체 회사가 공장 시뮬레이션까지 내세우는 장면은 분명 예전과 다르다. 엔비디아가 파는 것이 칩이 아니라 생산 체계라는 사실이 이쯤 되면 또렷해진다.

사진=NVIDIA, K trendy NEWS DB ⓒ케이 트렌디뉴스 무단전재 및 수집, 재배포금지

루빈을 둘러싼 발표는 엔비디아가 AI 산업의 수요를 어디서 읽고 있는지도 보여준다. 학습은 여전히 중요하다. 그러나 학습만으로는 더는 시장 전체를 설명할 수 없다. AI 서비스가 실제 기업 현장에 붙고, 고객 수백만 명이 매일 이용하고, 에이전트 여러 개가 동시에 움직이기 시작하면 수요의 성격이 바뀐다. 안정성, 운영비, 전력 효율, 네트워크 지연, 저장장치 처리량, 배포 편의성이 모두 중요해진다. 엔비디아는 그런 수요를 보고 루빈을 내놨다. 벤치마크 표 위에서 이기는 칩보다는 데이터센터 전체 수익성을 끌어올리는 시스템에 더 무게를 둔 설명이었다.

고객군을 봐도 흐름은 선명하다. AWS, 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 같은 초대형 클라우드 사업자는 물론이고, 메타 같은 플랫폼 기업, 산업용 소프트웨어 회사, 제조업체, 물류·자동차 기업까지 이름이 넓어졌다. 모두가 그래픽카드를 사는 것이 아니다. AI 서비스를 돌릴 설비, 기업 내부 도구와 연결할 운영환경, 공장과 차량과 로봇에 붙일 시스템을 산다. 엔비디아가 루빈을 시스템 상품으로 포장한 배경도 여기 있다. 고객이 필요로 하는 물건의 형태가 이미 그렇게 바뀌었다. 가속기 단품만으로는 매출 규모를 설명하기 어려운 시점에 들어섰다.

엔비디아가 최근 반복하는 ‘AI 팩토리’라는 말도 같은 계산 위에 놓여 있다. 언뜻 보면 화려한 수사처럼 들릴 수 있다. 그러나 실적표와 함께 놓고 보면 사정이 달라진다. 2026회계연도 데이터센터 매출 1937억달러, 4분기 데이터센터 매출 623억달러라는 숫자는 기업들이 AI 설비를 단순 비용이 아니라 생산능력으로 보기 시작했다는 정황과 맞물린다. 공장은 제품을 찍어내는 시설이다. 엔비디아는 데이터센터를 토큰과 응답, 분석 결과와 업무 자동화를 찍어내는 공장으로 부른다. 비용 지출이 아니라 생산설비 투자라는 문법을 시장에 심어 놓은 셈이다. 루빈은 그 공장에 들어갈 핵심 장비 묶음으로 제시됐다.

여기서 엔비디아를 지나치게 높게만 볼 필요는 없다. 리스크도 분명하다. 우선 AI 데이터센터 투자는 규모가 너무 커졌다. 고객 몇 곳의 설비투자 속도만 늦어져도 실적 변동성이 커질 수 있다. 데이터센터 편중이 심해진 구조도 부담이다. 1937억달러 데이터센터 매출은 강점인 동시에 의존도를 뜻한다. 제품 전환 비용도 무시하기 어렵다. 총마진이 연간 기준으로 전년보다 낮아진 점은 공급 확대와 신제품 전환 부담을 보여준다. AI 산업이 성장하는 동안에는 가려질 수 있지만, 투자 사이클이 한 번 꺾이면 시장은 같은 숫자를 다른 각도에서 보기 시작한다. 루빈이 공장급 시스템으로 소개됐다는 사실은 장점이자 부담이다. 고객이 도입을 늦추면 타격도 시스템 단위로 커진다.

사진=NVIDIA, K trendy NEWS DB ⓒ케이 트렌디뉴스 무단전재 및 수집, 재배포금지

기술적인 경쟁 구도도 만만치 않다. AMD는 가속기 시장을 넓히려 하고 있고, 인텔은 서버 생태계를 쉽게 포기하지 않는다. 구글과 아마존, 마이크로소프트처럼 자체 칩을 키우는 고객도 있다. 브로드컴과 마벨처럼 네트워크와 맞춤형 반도체 쪽에서 입지를 넓히는 회사도 존재한다. 엔비디아가 시스템 전체를 쥐겠다고 나선 순간 경쟁자는 GPU 업체에 그치지 않게 됐다. CPU, 네트워크, 저장장치, 클라우드 운영환경, 산업용 소프트웨어, 개발도구 영역에서 각각 다른 경쟁자를 만나게 된다. 그래서 더더욱 참조 설계와 생태계 묶음이 중요해진다. 칩 하나의 우위만으로는 감당하기 어려운 싸움이 됐기 때문이다.

그럼에도 루빈 발표가 남긴 인상은 분명하다. 엔비디아는 더 이상 반도체 신제품을 하나씩 내놓는 회사가 아니다. 고객이 AI 데이터센터를 어떻게 지을지까지 함께 제안하는 회사로 움직이고 있다. 베라 CPU와 루빈 GPU, 블루필드 DPU, 스펙트럼 스위치, 저장장치 인프라, 참조 설계, 운영 시뮬레이션 청사진을 한꺼번에 묶은 발표가 그 사실을 보여준다. 예전에는 그래픽카드 한 장이 엔비디아를 대표했다. 지금은 랙과 랙, 데이터센터와 데이터센터가 엔비디아를 설명한다.

GTC 2026에서 루빈은 새 칩 이상의 의미를 가졌다. 엔비디아가 시장을 바라보는 방식이 달라졌다는 신호였다. 칩 성능 경쟁은 여전히 중요하지만, 거기서 끝나지 않는다. 앞으로의 매출은 공장 규모의 시스템을 누가 더 빨리, 더 안정적으로, 더 낮은 비용으로 공급하느냐에 달려 있다. 엔비디아는 이미 그 싸움으로 건너갔다. 루빈을 앞세운 이번 발표는 블랙웰 다음 세대를 알리는 제품 소개가 아니라, AI 산업의 주도권이 단품 반도체에서 시스템 설계와 운영으로 넘어가고 있음을 알린 장면에 가까웠다.

실적표가 먼저 변화를 말해 줬고, GTC 2026은 그 변화를 제품 언어로 풀어냈다. 데이터센터 매출이 회사 전체를 끌고 가는 상황에서 루빈은 자연스럽게 공장형 플랫폼으로 등장했다. 엔비디아가 손에 쥔 것은 더 빠른 칩 한 장이 아니다. AI를 실제 산업과 서비스 위에서 돌아가게 만드는 공장 설계의 주도권이다. 시장이 루빈 발표를 단순한 신제품 뉴스로 넘기지 않은 이유도 여기에 있다. AI 산업의 다음 승부처가 어디인지, 엔비디아는 이미 자기 방식으로 답을 내놓았다.