[엔비디아②] "AI가 AI를 고용한다"… 젠슨 황이 선포한 인간 없는 '에이전트 경제'
챗봇의 시대는 끝났다? 젠슨 황이 공개한 '제4의 스케일링 법칙'과 인공지능 노동력의 탄생
[KtN 최기형기자]미국 새너제이에서 열린 GTC 2026 무대의 첫머리를 잡은 것은 신형 그래픽처리장치 이름이 아니었다. 젠슨 황 엔비디아 최고경영자는 이번 행사에서 ‘에이전트’를 앞에 세웠다. 질문을 던지면 답을 내놓는 챗봇을 넘어, 여러 AI가 동시에 움직이고 각자 맡은 일을 처리한 뒤 결과를 다시 이어 붙이는 방식이 기조연설의 중심에 놓였다. 엔비디아가 이번 행사에서 내놓은 설명은 단순했다. AI 산업의 다음 수요는 더 큰 모델 하나를 만드는 데서만 나오지 않는다. 이미 나온 모델을 실제 업무에 붙이고, 여러 AI를 함께 굴리고, 하루 종일 운영하는 과정에서 더 큰 계산 수요가 생긴다. 엔비디아는 그 장면을 겨냥해 칩과 소프트웨어, 운영도구를 한꺼번에 내놨다.
AI 산업은 지난 몇 년 동안 ‘더 큰 모델’이라는 한 문장으로 움직였다. 더 많은 데이터, 더 많은 그래픽처리장치, 더 긴 학습 시간, 더 비싼 설비투자가 성능 향상으로 이어졌다. 시장도 그 질서에 익숙했다. 대형 언어모델 경쟁은 누가 더 큰 모델을 먼저 내놓느냐, 누가 더 많은 칩을 쥐고 있느냐에 따라 갈렸다. 지난해부터는 분위기가 조금 달라졌다. 모델을 한 번 학습시킨 뒤 실제 서비스에 올려 놓고, 질문에 답을 내놓기까지 더 긴 추론 과정을 거치는 흐름이 커졌다. 학습용 데이터센터 다음에 추론용 데이터센터가 시장의 관심을 끌기 시작했다. GTC 2026에서 엔비디아가 한 일은 한 걸음 더 나아가는 일이었다. AI 하나의 성능을 높이는 문제에서 벗어나, 여러 AI가 함께 움직이는 구조 전체를 새 수요로 제시했다.
엔비디아가 붙인 이름은 ‘에이전틱 스케일링’이었다. 기사에서 굳이 낯선 용어를 반복할 필요는 없다. 말뜻은 비교적 선명하다. AI 한 개가 질문 하나를 받아 답 하나를 내놓는 방식으로는 앞으로의 업무 자동화를 설명하기 어렵다는 얘기다. 기업 현장에서는 이미 모델 하나로 끝나지 않는 일이 늘고 있다. 문서를 찾아 읽는 AI가 있고, 숫자를 검산하는 AI가 있고, 표를 그리는 AI가 있고, 코드를 실행하는 AI가 따로 붙는다. 고객 문의에 답하는 AI와 주문 내역을 조회하는 AI, 재고를 확인하는 AI, 환불 규정을 검토하는 AI가 분리돼 움직이기도 한다. 사람 한 명이 여러 부서에 전화를 돌리며 처리하던 일을 AI 여러 개가 나눠 맡는 구조다. 작업이 잘게 나뉠수록 계산량은 늘고, 응답 지연에 대한 부담도 커진다. 엔비디아는 바로 그 운영 현장을 시장 앞에 펼쳐 보였다.
이 장면이 엔비디아에 중요한 이유는 분명하다. AI 여러 개가 동시에 움직이면 필요한 것은 모델 하나를 띄울 그래픽처리장치 몇 장이 아니다. 긴 문맥을 버틸 메모리, 서로 다른 에이전트가 주고받는 데이터를 소화할 네트워크, 데이터베이스와 연결할 중앙처리장치, 결과를 저장하고 다시 불러올 저장장치, 작업 흐름을 통제할 소프트웨어가 함께 필요하다. 질문 하나를 처리하는 데 필요한 구조가 훨씬 복잡해지는 셈이다. 엔비디아는 이번 GTC에서 그 복잡한 구조를 자사 제품군 안에 묶는 그림을 내놨다. 루빈 플랫폼, NV링크, 블루필드, 스펙트럼, 네모트론, 오픈 모델, 에이전트 도구, 개발 장비까지 한 줄로 이어 놓았다. 엔비디아가 더 이상 가속기 한 장을 파는 회사로 남으려 하지 않는다는 뜻이기도 하다.
행사장에서 눈에 띈 이름은 오픈클로, 오픈셸, 네모클로였다. 이름은 낯설지만 역할은 비교적 또렷하다. 오픈클로는 여러 에이전트를 한데 묶어 장시간 움직이게 하는 오케스트레이션 환경에 가깝다. 기업 업무는 대부분 단발성 질문으로 끝나지 않는다. 자료를 찾고, 외부 도구를 불러오고, 결과를 검산하고, 다시 문장을 고치는 절차가 따라붙는다. 오픈클로는 그런 연속 작업을 끊기지 않게 묶는 쪽에 가깝다. 오픈셸은 보안과 통제에 무게를 둔 실행 환경으로 배치됐다. 기업이 외부 도구와 내부 데이터베이스를 연결할 때 가장 먼저 따지는 것은 성능보다 권한과 기록 관리다. 네모클로는 네모트론 모델과 오픈셸 런타임을 오픈클로 위에 얹는 방식으로 소개됐다. 엔비디아는 모델, 실행 환경, 오케스트레이션을 따로따로 놓지 않고 하나의 기업용 경로로 묶었다.
여기서 드러나는 계산은 분명하다. 지금까지 AI 산업은 모델 성능이 앞에 섰다. 어느 회사 모델이 더 잘 답하느냐, 어느 회사가 더 큰 벤치마크 점수를 받느냐가 시장의 관심사였다. 그러나 기업이 돈을 쓰는 단계에 들어가면 질문이 달라진다. 누가 더 잘 답하느냐보다, 누가 더 싸게 오래 돌 수 있느냐, 누가 사내 시스템과 쉽게 연결되느냐, 누가 권한 관리와 기록 보관을 감당하느냐가 중요해진다. 엔비디아는 그 지점을 파고들었다. 모델 회사를 흉내 내기보다 모델이 깔리는 길을 잡는 쪽으로 움직였다. 개발자용 소형 장비부터 데이터센터급 시스템, 오픈 모델, 실행 도구, 배포 환경을 차례로 내놓은 이유도 여기에 있다.
DGX 스파크와 DGX 스테이션이 주목받은 배경도 같은 곳에 있다. 두 장비는 단순한 워크스테이션 소개로 끝나지 않았다. 개발자 개인 책상에서 시작한 작업을 기업 내부 시스템이나 데이터센터급 인프라로 옮기는 첫 단계로 제시됐다. 예전 데이터센터 사업은 초대형 클라우드 사업자와 소수 대기업의 몫처럼 보였다. 엔비디아는 이번 행사에서 그 진입점을 훨씬 낮은 쪽으로 끌어내렸다. 연구자와 개발자가 자기 자리에서 에이전트를 만들고 시험한 뒤, 같은 생태계 안에서 더 큰 장비로 옮겨갈 수 있게 하겠다는 구상이다. 작은 장비 하나를 팔겠다는 이야기가 아니다. 개발부터 운영까지 한 줄로 이어지는 고객 경로를 만들겠다는 뜻이다.
기조연설에서 반복된 장면도 눈여겨볼 만하다. 젠슨 황은 AI를 더 이상 질문에 답하는 소프트웨어로 설명하지 않았다. AI가 다른 도구를 불러오고, 작업을 분배하고, 검토를 거치고, 다시 실행하는 구조가 더 많이 등장했다. 코드를 짜는 AI, 문서를 읽는 AI, 공장 설비를 모니터링하는 AI, 로봇을 훈련시키는 AI가 따로 움직였다. 업무 현장에서는 이미 비슷한 흐름이 나타난다. 하나의 모델로 모든 일을 처리하려는 시도보다, 특정 업무에 맞는 모델과 도구를 조합하는 방식이 더 빠르고 관리하기 쉽기 때문이다. 엔비디아는 이런 현장을 자기 논리로 다시 설명했다. 질문 하나를 처리하는 데 AI 여러 개가 붙는 구조가 보편화하면, 기업이 사야 하는 장비와 소프트웨어도 훨씬 늘어난다.
칩 발표가 약했던 것은 아니다. 다만 이번 행사에서 칩은 언제나 운영 장면 뒤에 놓였다. 루빈 플랫폼은 차세대 GPU라는 소개에 머물지 않았다. 중앙처리장치, 네트워크, 저장장치, 랙 단위 시스템까지 묶인 풀스택 플랫폼으로 설명됐다. 엔비디아가 강조한 수치도 최고 성능 하나에 모이지 않았다. 처리량, 지연시간, 토큰당 비용, 운영 효율이 함께 나왔다. AI 산업의 무게중심이 학습에서 추론과 운영으로 옮겨간 만큼, 칩 설명 방식도 달라진 것이다. 더 빠른 칩 한 장보다, 더 싼 비용으로 더 많은 에이전트를 안정적으로 돌리는 시스템이 중요해졌다. 엔비디아가 루빈을 시스템 단위로 설명한 이유가 여기에 있다.
비용 이야기가 자주 나온 점도 주목할 만하다. 학습 중심 시장에서는 누가 더 큰 모델을 먼저 만들 수 있느냐가 중요했다. 운영 단계에서는 계산이 달라진다. 질문이 하루에 수십만 건, 수백만 건 들어오면 토큰당 비용과 지연시간이 바로 수익성으로 이어진다. 에이전트 수가 늘어나면 사정은 더 복잡해진다. 문서 한 장을 읽고 답하는 수준이 아니라, 같은 요청을 놓고 여러 AI가 동시에 움직이기 때문이다. 엔비디아는 추론 비용을 낮추면 기업이 AI를 더 넓게 붙일 수 있고, 사용량이 늘어나면 다시 더 큰 설비투자가 뒤따른다고 본다. 반도체 회사가 비용 이야기를 앞세우는 까닭도 여기에 있다. 칩 성능 자랑보다 설비투자 논리를 먼저 세우는 편이 지금 시장에서 더 먹히기 때문이다.
소프트웨어 묶음도 예전보다 훨씬 두꺼워졌다. 네모트론 오픈 모델, NIM 마이크로서비스, 다이나모, 에이전트 도구, 런타임 환경, 보안 계층이 한꺼번에 제시됐다. 반도체 회사 행사라기보다 운영환경 공급자 행사에 가까웠다. 엔비디아가 지난 20년 가까이 CUDA 생태계를 키운 방식이 이번에는 에이전트 시장으로 옮겨간 셈이다. 예전 CUDA 전략은 간단했다. 개발자가 한 번 익숙해지면 다른 생태계로 옮기기 어렵게 만드는 구조였다. 이번 GTC에서 보인 움직임도 비슷하다. 에이전트를 만들고, 시험하고, 배포하고, 운영하는 과정 전체를 자사 도구 안에 넣어 두면 고객은 자연스럽게 엔비디아 장비와 소프트웨어를 함께 쓰게 된다.
클라우드 사업자 이름이 행사 곳곳에 등장한 점도 그냥 지나치기 어렵다. AWS, 마이크로소프트, 구글, 오라클 같은 이름이 반복된 이유는 단순한 협력 발표 때문이 아니다. 기업용 AI가 확산하려면 내부 장비만으로는 부족하다. 사내 시스템과 퍼블릭 클라우드, 온프레미스 환경, 현장 장비가 함께 연결돼야 한다. 엔비디아는 클라우드 사업자와 손잡고 자사 모델과 도구, 시스템이 깔리는 경로를 넓혔다. 한쪽에서는 초대형 데이터센터를 짓고, 다른 한쪽에서는 기업 내부 운영망과 연결되는 소프트웨어를 얹는 구조다. 대형 클라우드와 협력을 강화하는 동안 개발자용 소형 장비를 함께 밀어붙인 배경도 같은 데 있다. 위에서 아래로, 아래에서 위로 같은 생태계를 관통하겠다는 계산이다.
산업용 소프트웨어 기업들이 GTC 2026의 전면에 나온 장면도 뜻이 크다. 카덴스, 다쏘시스템, 지멘스, 시놉시스 같은 회사들은 대중에게 익숙한 이름이 아닐지 몰라도, 제조와 반도체, 설계 현장에서는 영향력이 크다. 엔비디아는 이런 기업들과 함께 설계 자동화, 공장 시뮬레이션, 디지털 트윈, 검증 소프트웨어 영역을 넓히고 있다. 생성형 AI 초기에 시장의 관심이 챗봇과 이미지 생성에 쏠렸다면, 이번 GTC에서는 공장과 설계실, 물류 현장이 더 큰 비중을 차지했다. 에이전트가 가장 먼저 자리를 잡을 곳이 반복 업무와 정형화된 의사결정이 많은 기업 현장이기 때문이다. 엔비디아는 단순한 소비자용 AI보다 기업용 운영 AI를 더 큰 시장으로 보고 있다.
게임 기술로 보였던 발표조차 같은 흐름에 놓여 있다. DLSS 5는 표면적으로는 그래픽 품질 향상 기술이다. 그러나 엔비디아가 붙인 설명은 실시간 신경망 렌더링 쪽에 가까웠다. 픽셀을 더 그럴듯하게 채우고, 빛과 재질 표현을 정교하게 보정하는 방식이다. 게임 화면 이야기처럼 들리지만, 안쪽에는 시각 정보를 AI가 어떻게 해석하고 처리하는지가 들어 있다. 엔비디아가 산업용 디지털 트윈과 시뮬레이션, 로봇 훈련 환경을 같은 무대에 올린 것은 우연이 아니다. 화면 속 장면을 실제에 가깝게 그리는 기술과 공장·차량·로봇을 가상 공간에서 시험하는 기술 사이의 거리가 점점 좁아지고 있다.
로보틱스와 자율주행, 의료, 통신까지 한 무대에서 묶인 장면도 마찬가지다. 엔비디아는 AI를 더 이상 문장 생성 소프트웨어로 설명하지 않는다. 공장 설비를 제어하고, 자율주행차를 훈련시키고, 물류센터를 운영하고, 의료 장비를 돌리는 계산 체계로 설명한다. 에이전트는 여기서 사람 말을 잘하는 비서가 아니라, 작업을 나눠 맡고 다른 시스템과 연결되는 실행 단위에 가깝다. 엔비디아가 보는 다음 시장은 화면 안쪽이 아니라 현장이다. AI가 여러 도구를 불러오고, 설비와 연결되고, 물리 세계의 장비를 움직이기 시작하면 필요한 것은 모델 하나가 아니라 운영 인프라 전체다.
그렇다고 GTC 2026의 발표를 모두 같은 무게로 볼 수는 없다. 이미 매출로 이어지는 사업과 아직 구상 단계에 가까운 사업이 한데 섞여 있기 때문이다. 대형 클라우드 사업자와의 설비 확대, 루빈 플랫폼, 개발 장비, 기업용 배포 도구는 비교적 가까운 미래의 매출과 연결된다. 반면 우주 데이터센터나 일부 피지컬 AI 구상은 시간이 더 필요하다. 엔비디아가 영향력을 바탕으로 발표 범위를 넓히고 있다는 점은 분명하지만, 모든 발표가 같은 속도로 시장이 되지는 않는다. 기조연설의 열기와 손익계산서의 숫자를 구분해 읽을 필요가 있는 이유다.
그래도 이번 GTC에서 시장이 확인한 것은 선명하다. 엔비디아는 AI 산업의 다음 단계를 모델 경쟁만으로 설명하지 않겠다는 태도를 분명히 했다. 누가 더 똑똑한 모델을 만드느냐보다, 누가 여러 AI가 함께 일하는 운영 환경을 먼저 깔아 두느냐가 중요해졌다는 메시지였다. 오픈클로와 오픈셸, 네모클로를 묶어 내놓고, 개발자용 장비에서 데이터센터까지 이어지는 경로를 제시한 방식도 그 계산 위에 서 있다. 칩 회사가 운영환경 사업자로 몸집을 바꾸는 과정이라고 보면 이해가 쉽다.
엔비디아의 2026회계연도 실적을 떠올리면 이런 움직임은 더 현실적으로 다가온다. 데이터센터 연매출이 1937억달러에 이른 회사가 새로 내놓는 발표는 단순한 기술 시연에 그치기 어렵다. 이미 손에 쥔 현금과 고객 기반을 바탕으로 다음 시장의 질서를 먼저 짜려는 시도에 가깝다. GTC 2026에서 젠슨 황이 앞세운 단어가 칩이 아니라 ‘일하는 AI’였던 이유도 여기에 있다. 모델 하나의 똑똑함보다, 여러 AI가 동시에 움직이는 현장을 누가 더 싸고 빠르고 안정적으로 깔아 주느냐가 앞으로의 매출을 가를 가능성이 커졌기 때문이다.
GTC 2026은 그래서 신제품 발표회라기보다 엔비디아가 바뀐 시장을 설명하는 자리였다. 학습 중심 투자만으로는 더는 AI 산업 전체를 설명하기 어렵고, 추론과 배포, 운영과 협업까지 들어간 새로운 지출 구조가 열린다는 점을 엔비디아는 집요하게 밀어붙였다. 오픈클로와 네모클로, DGX 스파크와 DGX 스테이션, 루빈 플랫폼과 클라우드 협력은 모두 한 방향을 가리켰다. AI 한 개가 아니라 여러 AI가 동시에 움직이는 시대가 열리면, 엔비디아는 칩 제조사를 넘어 그 무대를 깔아 주는 사업자로 자리를 굳히게 된다. 이번 GTC 2026은 그 구도를 시장 앞에 공식화한 무대였다.