(전기전성시대)③예고된 전력 포화상태…저전력 AI 칩 '눈길'
인공지능 데이터센터 전력 소비량 10배
발전용량 증가폭 전력 소비증가폭 밑돌아
전력 소비량 줄인 NPU 상용화 앞둬…투자 이어져
공개 2024-06-04 06:00:00
챗GPT(ChatGPT)로 대표되는 생성형 인공지능(AI)의 등장에 앞으로 기술발전 속도가 빨라질 것이란 전망이 나오고 있다. 인공지능은 대량의 컴퓨터 연산을 수반하는 까닭에 전력 소비량이 크다. 전력 소비량은 늘어나는데 전력을 운송하는 송전망은 노후화된 실정이라 전력 과부하·전력 손실량 증가 등 문제가 발생하고 있다. 이에 주요 국가들은 인공지능 시대에 대비해 전력망을 교체하고 있다. 국내 주요 전선 제조사들은 전세계적인 전력망 교체의 수혜를 받을 전망이다. <IB토마토>는 시대의 변화에 따른 전력 산업의 문제 및 미래를 짚어보고 국내 전선 산업이 시대의 변화에 어떻게 대응하고 있는지 살펴본다. (편집자주)
 
[IB토마토 정준우 기자] 인공지능(AI) 산업이 ‘전기 먹는 하마’가 되면서 향후 전 세계적으로 전력 수요 증가폭이 공급량을 추월할 것이란 우려가 나오고 있다. 이에 전력 인프라 개선뿐 아니라 발전용량 확충도 함께 병행되어야 한다는 지적이 나오고 있다. 그러나 발전용량을 확충하는데는 오랜 시간이 소요되는 까닭에 향후 전력 사용량 포화 상태는 피할 수 없을 것으로 보인다. 이에 AI 업계는 전력 소모량을 획기적으로 줄이는 NPU(인공지능 칩) 상용화를 앞두고 있어 전력 소비량 급증 문제를 해소할 수 있을지 관심이 집중되고 있다.
 
인공지능 데이터센터(사진=딥엑스)
 
인공지능 수요 급증에 발전용량 ‘포화상태’
 
31일 업계에 따르면 AI 기술의 기반이 되는 데이터센터 건설이 확산되면서 글로벌 전력 소비량이 지속적으로 증가할 것으로 예상된다. 데이터센터 산업은 2010년대 클라우드 서비스를 기반으로 성장했지만, AI 산업 성장에 따라 새로운 호황을 맞이할 것이란 전망이 나오고 있다. 이에 향후 데이터센터 건설이 큰 폭으로 늘어날 전망이다. 데이터센터 건설은 착공부터 완공까지 1~2년가량 소요된다. 건설 기간이 짧은 까닭에 데이터센터 분야에서 소요되는 전력 소모량은 큰 폭으로 늘어날 것으로 예상된다.
 
국제 에너지 기구(IEA)에 따르면 올해부터 2026년까지 데이터센터가 소비하는 전력량은 빠르게 증가할 것으로 예상된다. 지난 2022년 전 세계적으로 데이터센터 영역의 전력 소비량은 460TWh(테라와트시)였지만 오는 2026년 1000TWh까지 증가할 것으로 전망된다. 1000TWh는 일본의 연간 전력 소비량과 맞먹는 양이다.
 
아울러 하나의 AI 데이터센터가 소비하는 전력량도 기존 데이터센터보다 크다. 삼성증권(016360)에 따르면 기존 데이터센터의 전력 밀도(단위 면적당 처리하는 전력량)는 4~6KW(킬로와트)지만 AI 데이터센터가 요구하는 전력 밀도는 20~40KW에 달한다. 같은 면적의 데이터센터라면 처리하는 전력량이 최대 10배 이상이다.
 
그에 반해 발전용량 증가 속도는 소비량 증가폭을 따라가지 못하고 있다. 지난 2023년부터 2026년까지 전력 소비량은 연평균 3.4%씩 증가할 전망이다. 그에 반해 전력 공급량은 연평균 3.2%로 소비량 증가폭을 하회할 전망이다. 미국 등 선진국을 중심으로 화석연료 발전소 폐쇄가 되면서 그 자리를 재생에너지 발전이 채우는 식으로 전력 정책이 실행되고 있기 때문이다. 미국 일부 지역에서는 아직 발전량 확충이 이뤄지지 못한 상태에서 데이터센터가 들어오면서 전력난이 가중되고 있다고 전해진다.
 
발전용량 확충이 필요하지만 발전소를 건설하기 위해서는 최장 10년가량의 시간이 소요된다. 발전소뿐 아니라 인근 지역을 연결하는 송전망 확충 등 인프라 구축이 함께 이뤄지기 때문이다. 이에 인공지능 업계에서는 전력 소모량을 줄일 수 있는 연구개발이 이뤄지고 있다.
 
 
전력 소모량 줄인 NPU 상용화 앞둬
 
향후 전 세계적으로 전력 수요 증가폭이 전력 공급폭을 능가할 것으로 전망되면서 전력 부족에 대한 우려가 나오고 있다. 미국 정부가 송전망 및 전력기기 인프라 개선으로 송전 효율을 늘리며 전력 사정을 개선시키고 있지만 빠르게 증가하는 전력 수요 증가폭을 따라잡기는 어렵다는 전망이 주를 이루고 있다.
 
이에 AI 업계는 전력 소비량을 줄이는 연구개발에 매진하고 있다. 특히 NPU를 중심으로 연구개발이 활발하게 이뤄지고 있다. 그간 AI 연산은 GPU(그래픽 처리 장치)를 통해 이뤄진다. GPU는 인공지능의 연산을 수행뿐 아니라 다양한 기능을 수행하기 때문에 가동시 발열과 함께 전력 소모량이 크다.
 
GPU의 단점을 보완하기 위해 NPU가 개발 중이다. NPU는 연산 기능만 수행하기 때문에 딥러닝 등 인공지능의 정보 습득 영역을 전문적으로 수행한다. 다기능을 수행하는 GPU와 달리 NPU는 연산 기능만 수행하기 때문에 전력 소비량이 적다. 관련 업계에 따르면 NPU의 전력 소비량은 GPU보다 최대 90% 이상 적다.
 
낮은 전력 소비량을 무기로 NPU 시장은 급성장할 것으로 예상된다. 전력 등 운영 비용을 절감할 수 있기 때문이다. 관련 업계에 따르면 글로벌 NPU 시장은 지난 2022년 45조원에서 2030년 160조원으로 성장할 전망이다.
 
이에 현재 국내 외 인공지능 칩 제조사들이 이르면 내년을 목표로 NPU 상용화를 추진하고 있다. 국내는 퓨리오사 AI, 딥엑스 등 NPU 설계사들이 NPU 양산을 앞두고 있다. 양산을 앞두고 NPU 시장의 가능성에 베팅하는 투자도 이어지고 있다. 딥엑스는 지난 5월 초 사모펀드 스카이레이크 등 사모펀드들로부터 1100억원의 시리즈C 투자를 유치했다. 스카이레이크는 시리즈C 투자를 통해 딥엑스의 2대주주가 되었다.
 
NPU 업계 관계자는 <IB토마토>와의 인터뷰에서 “NPU의 전력소비량은 적용 영역별로 범위가 다양하다”라며 “기존 GPU의 전력소비량보다 10배 이상 전력 효율이 높을 뿐 아니라 탄소 배출량 절감 효과도 있다”라고 말했다.
 
정준우 기자 jwjung@etomato.com
 

정준우 왜?(Why?)에 대한 답변이 되는 글을 쓰겠습니다.