AI 확산이 촉발한 전력 수요 급등… 효율성 중심의 하드웨어 전환이 불가피해지는 이유

[KtN 신명준기자]전 세계 인공지능 산업이 빠르게 성장하면서 데이터센터 전력 소비가 전례 없이 증가하고 있다. 대형 언어모델(LLM)을 학습시키기 위해 수천 대의 그래픽처리장치(GPU)가 동시에 작동하며, 한 번의 모델 훈련에 필요한 전력은 소규모 도시 하루 사용량에 맞먹는다. 주요 빅테크 기업이 경쟁적으로 인공지능 서비스를 확대하면서 연산을 위한 전력 수요는 기존 정보통신 인프라의 증가 속도를 훌쩍 넘어섰다.

국제에너지기구(IEA)는 2024년 전 세계 데이터센터의 전력 소비량이 약 415테라와트시(TWh)에 이를 것으로 전망했다. 2030년에는 900TWh 수준으로 늘어날 가능성이 있다. 영국 한 나라의 연간 전력 사용량을 상회하는 수치다. 클라우드 서비스와 인공지능 학습이 차지하는 비중은 정보기술 분야 전체 전력 소비의 절반 가까이로 집계된다. 미국과 유럽에서는 이미 전력 공급망의 한계가 현실적인 제약 요인으로 작용하고 있다.

데이터센터 운영 구조를 들여다보면 전력 소비의 원인이 분명하다. 서버 구동을 위한 연산 전력뿐 아니라 냉각과 전력 안정화에 쓰이는 보조 전력 비중이 크다. 고성능 GPU는 일정 온도 이상으로 가열될 경우 효율이 급격히 떨어지기 때문에, 대형 데이터센터는 전체 전력의 절반 가까이를 냉각 장치 운용에 투입한다. 미국 실리콘밸리의 한 클라우드 센터는 총 전력의 35~40퍼센트를 냉각에 사용하고 있는 것으로 알려졌다. 이런 구조는 필연적으로 운영 비용 상승으로 이어진다.

구독자 전용 기사 입니다.
회원 로그인 구독신청
저작권자 © KtN (K trendy NEWS) 무단전재 및 재배포 금지