닫기

[르포] “AI 공장의 엔진” 네이버 데이터센터 ‘각 세종’ 가보니

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://ww2.asiatoday.co.kr/kn/view.php?key=20251028010010929

글자크기

닫기

이서연 기자

승인 : 2025. 10. 28. 15:44

270MW 전력에 하이브리드 냉각 시스템 'NAMU-Ⅲ' 적용
이중화 구조로 무정지 운영…2027년부터 수냉식 전면 도입 계획
각세종 전경_낮3
네이버 데이터센터 각 세종 전경./네이버클라우드
축구장 41개 크기의 부지. 원자력 발전소 수준의 내진 설계를 갖춘 거대한 콘크리트 구조물 안에서 수만 개의 GPU가 쉴 새 없이 돌아가고 있었다. 27일 취재진이 찾은 네이버 데이터센터 '각 세종'은 단순한 데이터 저장 공간이 아니라 대규모 연산이 실시간으로 이루어지는 AI 인프라의 중심이었다.

가장 먼저 들른 곳은 서버실이었다. 자산관리 자동화 로봇 '가로'와 '세로'가 바쁘게 움직이고 있었다. '세로'는 서버의 불출과 적재를 사람의 개입 없이 수행하며 2mm 단위로 서버를 정확하게 집어 안전하게 적재한다. 최대 3m 높이까지 서버를 올릴 수 있고 면적당 자산 수용량을 높이는 역할을 한다. '가로'는 서버실과 로봇 창고를 오가며 최대 400kg의 장비를 운반한다. '파워 어시스트 모드'로 전환하면 작업자가 직접 핸들을 제어해 수동 운송도 가능하다. 바로 옆에서는 각 세종 내부를 오가는 자율주행 셔틀 '알트비(ALT-B)'가 움직이고 있었다. 알트비는 네이버랩스의 풀스택 자율주행 기술로 구동되며 자체 개발한 자율주행 소프트웨어 '알트라이브(ALTRIV)'가 탑재됐다.
각세종_세로&가로
네이버 데이터센터 각 세종 서버실에서 작동하고 있는 '가로' , '세로'로봇./네이버 클라우드
전력·냉각·네트워크·보안을 모두 통합한 풀스택 데이터센터 각 세종은 최대 270MW의 전력을 공급받으며 랙당 30㎾, 네트워크는 800Gbps 대역폭을 처리한다. 대규모 AI 연산이 이뤄지는 만큼 냉각 효율은 필수다. 데이터센터 관계자는 "GPU 밀도가 급격히 높아지면서 냉각 기술은 인프라 효율을 좌우하는 핵심이 됐다"며 "공기 냉각을 넘어 수냉식으로 진화하는 전환점을 맞고 있다"고 말했다.

네이버는 각 춘천의 실데이터를 기반으로 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템 'NAMU-Ⅲ'를 적용했다. 계절과 온도, 부하에 따라 냉각 방식을 자동으로 전환해 에너지 효율을 기존 대비 73% 향상시켰다. 춘천에서는 지난 5월부터 액침냉각 PoC를 진행 중이며 내년 4월까지 세종에서 수냉식 DLC(Direct Liquid Cooling) 실증을 완료할 예정이다. 이상준 네이버클라우드 CIO는 "2027년 2차 서버실부터 DLC를 전면 적용할 계획"이라며 "다만 엔비디아가 액침냉각을 공식 지원하지 않아 절연유 환경의 안정성 검증을 병행 중"이라고 설명했다.
각세종_관제센터(1)
네이버 데이터센터 각 세종 관제센터./네이버클라우드
각 세종은 장애 상황에서도 멈추지 않도록 설계됐다. 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 연결한 이중화(Active-Active) 구조 덕분이다. 앞서 판교 IDC 화재 당시 네이버는 이 구조를 통해 주요 서비스의 다운타임을 최소화 할 수 있었다는 설명이다. 서비스 설계 단계부터 한쪽이 멈춰도 다른 쪽으로 즉시 우회하도록 설계하는 데는 130~140%의 투자비가 필요하지만 네이버의 문화이자 방침이다.

현장 투어 후 진행된 질의응답에서 노상민 데이터센터장은 "AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보했느냐가 아니라 확보한 자원을 얼마나 안정적이고 효율적으로 운영하느냐에 달려 있다"고 강조했다. 그는 "GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다"며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 역량은 글로벌에서도 손꼽힌다"고 덧붙였다.

네이버클라우드는 현대자동차, 코닉스, 삼성전자, 한국은행 등 주요 기업에 GPUaaS(GPU as a Service) 형태로 AI 인프라를 공급하고 있다. 단순히 GPU를 빌려주는 수준이 아니라 최적의 워크로드 설계와 효율적 자원 운용을 함께 제공하는 플랫폼형 납품 방식이다. 최근 정부의 GPU 1만 장 사업에서도 약 3000장을 수주했으며 단순 GPU뿐 아니라 통합 플랫폼을 함께 제공했다. 노 센터장은 "GPUaaS 비중이 체감상 절반 수준으로 늘었다"고 밝혔다.

글로벌 확장 사례도 공개됐다. 네이버는 사우디, 태국(SCB와 태국어 모델), 일본(독거노인 케어·CS 솔루션) 등에서 AI 프로젝트를 진행 중이다. 이상준 CIO는 "AI 선도 기업의 기업가치가 네이버에는 아직 반영되지 않았지만 기술 내재화가 쌓이면 충분히 올라갈 수 있다"며 "정부 AI 인프라 사업에서도 실질적 성과를 낼 것"이라고 말했다.

네이버는 내부 GPUaaS 플랫폼을 국가 AI 데이터센터에도 적용할 계획이다. 해남에 구축될 국가 AI 컴퓨팅센터에는 삼성SDS와 동등 지분으로 참여했다. 내부 AI 워크로드를 처리할 수 있는 자체 수요가 풍부해 사업이 부진하더라도 리스크를 헤지할 수 있다는 설명이다.

이 CIO는 "AI 인프라 확장의 세 가지 축은 GPU, 인력, 데이터"라고 말했다. 그는 "네이버가 축적한 데이터가 하이퍼클로바의 토양이 됐듯 정부와 공공기관의 데이터 개방이 산업 경쟁력을 높일 것"이라고 덧붙였다.
이서연 기자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기