광둥 연구진, 전력 소모 90% 줄였다는 뇌 모방형 AI 서버 공개… 효율성 주장 검증은 아직
[KtN 신명준기자]중국 광둥성에서 열린 기술 포럼에서 광둥지능과학기술연구원(GDIIST)이 ‘BI 익스플로러(BI Explorer, BIE-1)’라는 이름의 인공지능 서버를 공개했다. 연구진은 이 장치가 기존 슈퍼컴퓨터에 준하는 성능을 내면서 전력 소모를 90퍼센트 줄였다고 밝혔다. 실제 효율과 성능이 공개된 수치에 부합하는지는 아직 독립적인 검증이 이뤄지지 않았다.
BIE-1은 냉장고 크기의 본체 안에 1,152개의 중앙처리장치(CPU) 코어, 4.8테라바이트( TB )의 DDR5 메모리, 204테라바이트의 저장장치를 탑재했다. GDIIST 측은 학습 단계에서 초당 10만 토큰, 추론 단계에서 초당 50만 토큰을 처리할 수 있다고 설명했다. 이는 고성능 그래픽처리장치(GPU) 여러 대가 병렬로 작동할 때의 처리 속도에 가깝지만, 실제 동등한 연산 환경에서 비교한 데이터는 공개되지 않았다.
GDIIST는 이 장치를 ‘뇌 모방형 인공지능 서버’로 소개했다. 장치의 구조는 인간 신경망의 작동 방식을 모사한 ‘직관형 신경망(Intuitive Neural Network)’ 알고리즘을 중심에 두고 있다. 이 방식은 필요한 순간에만 연산 회로를 활성화해 에너지 낭비를 줄이는 것을 목표로 한다. 일반적인 GPU 기반 딥러닝 구조가 모든 노드를 동시에 작동시키는 밀집형 연산에 의존하는 것과 대조적이다. GDIIST 연구팀은 이 희소 연산 구조가 전력 효율을 높인 핵심이라고 설명했다.
BIE-1의 주요 특징으로 제시된 부분은 소형화와 저전력 구조다. 연구진은 일반 가정용 전원에서도 작동할 수 있고, 최대 부하 상태에서도 내부 온도가 섭씨 70도를 넘지 않는다고 밝혔다. 대형 냉각 장비가 필요하지 않다는 점도 강조했다. 다만 실제 구동 환경에서의 열 관리 성능과 소음 수준에 대한 실험 결과는 공개되지 않았다.
전력 효율은 최근 인공지능 산업이 맞닥뜨린 가장 현실적인 과제다. 대형 언어 모델(LLM)을 학습하기 위해서는 수천 대의 GPU가 장시간 가동되며, 이로 인한 전력 소비는 국가 단위의 전력 수요에 영향을 미칠 정도로 커지고 있다. 국제에너지기구(IEA)는 2024년 전 세계 데이터센터 전력 소비량을 약 415테라와트시(TWh)로 추산했으며, 2030년에는 900TWh에 이를 가능성이 있다고 전망했다. GDIIST가 주장한 전력 절감 수치가 사실로 확인된다면, 이러한 소비 증가에 대한 대안으로 검토될 여지가 있다.
BIE-1은 신경모방(Neuromorphic) 컴퓨팅 기술을 응용해 설계됐다. 이 기술은 기억과 연산을 분리하지 않고, 하나의 회로 안에서 동시에 수행한다. 인간의 두뇌가 정보를 저장하고 처리하는 방식을 모사한 개념이다. 기존 컴퓨터가 데이터를 메모리와 연산 장치 사이에서 이동시키는 과정에서 발생하는 에너지 손실을 줄이는 것이 목적이다. 다만 신경모방 컴퓨팅은 아직 연구 단계에 머물러 있고, 상용화된 시스템은 전 세계적으로도 많지 않다. GDIIST의 BIE-1은 이 기술을 독립형 서버 구조로 적용했다는 점에서 실험적 시도로 평가된다.
GDIIST는 BIE-1의 활용 가능성으로 의료 데이터 분석, 교육용 AI 튜터, 스마트오피스 운영 지원 등을 제시했다. 연구원 산하 기업인 주하이 헝친 네오젠인트 테크놀로지와 수이런 메디컬 테크놀로지가 상용화를 추진 중이다. 두 기업은 각각 개인 맞춤형 AI 시스템과 헬스케어 기기에 적용하는 방안을 검토하고 있다. 그러나 구체적인 제품 출시 일정이나 상용화 단계의 세부 기술은 아직 공개되지 않았다.
일부 기술 전문가는 BIE-1이 제시한 방향이 흥미롭다고 평가하면서도, 과장된 해석을 경계해야 한다고 지적한다. 신경모방형 설계가 전력 효율을 높이는 것은 가능하지만, 기존 GPU 시스템을 완전히 대체하기에는 아직 한계가 크다는 것이다. 특히 대규모 언어 모델 훈련이나 고정밀 계산처럼 높은 연산 밀도를 요구하는 분야에서는 GPU 병렬 연산의 우위가 여전히 뚜렷하다.
BIE-1의 성능이 실제 수치대로 입증될 경우, 인공지능 인프라의 구조에도 변화가 예상된다. 대형 데이터센터에 집중돼 있던 연산 자원이 소형 단말과 지역 단위 서버로 분산될 가능성이 생긴다. 다만 현재로서는 기술적 가능성이 제시된 단계이며, 실제 시장 적용 여부는 향후 검증과 비용 구조에 달려 있다.
GDIIST의 발표는 인공지능 하드웨어의 효율성 문제에 대한 중국 측 연구계의 시도로 볼 수 있다. 최근 중국은 자체 반도체 기술 개발과 AI 인프라 자립을 강화하고 있으며, BIE-1 역시 이러한 흐름 속에서 등장했다. 하지만 기술적 독창성과 상용화 수준을 객관적으로 평가하려면 공개된 데이터와 실험 결과가 더 필요하다.
BIE-1은 효율성이라는 목표를 내세운 연구 시제품의 하나로, 대형 클라우드 중심의 인공지능 구조가 과도한 전력을 소모한다는 문제의식에서 출발했다. 실제 성능이 검증되고 상용화로 이어질지는 아직 불투명하다. 그럼에도 이번 발표는 인공지능이 전력 효율을 중심으로 재설계되는 새로운 경쟁의 시대가 시작됐음을 보여준다.
후원=NH농협 302-1678-6497-21 위대한자
