클라우드·DC업계 대표행사인 ‘Korea Cloud & Datacenter Convention 2025’ (KRCDC 2025)가 9월19일 코엑스 ASEM Ballroom에서 개최됐다.
이번 행사는 ‘Engineering Cross-Border Digital Infrastructure in Northeast Asia(동북아시아 국경 간 디지털인프라 구축)’를 주제로 개최됐으며 Plenary Hall에서는 한국 및 동북아시아 DC시장의 성장전망 및 전략에 대한 발표와 세미나가 개최됐다.
AI가 전 산업군의 필수요소로 자리잡으면서 급격하게 변화하고 있는 데이터센터 동향을 살펴볼 수 있는 발표가 이어졌다. AI확산에 따라 DC인프라가 전환기를 맞이하고 있다는 점이 공통적으로 강조됐으며 고성능 GPU 서버 도입으로 전력 소모와 발열이 급증하면서 액침냉각·DLC(Direct Liquid Cooling) 등 차세대 냉각기술이 현실적 대안으로 언급됐다.
AI DC 인프라 확산에 따른 주요쟁점 공유
데이터센터 운영환경이 고도화되면서 냉각기술, 자동화, 보안 등 다양한 분야에서 새로운 과제가 부각되고 있다. 조창희 어니언소프트웨어 대표는 DC운영에 주요 전략과제를 소개했다.
최근 확산되고 있는 액침냉각, 이머전쿨링시스템은 고성능 GPU서버의 발열을 제어하는 효과적인 대안으로 주목받고 있지만 물배관관리와 오일기반 냉각에서 발생할 수 있는 리스크가 동반된다.
물 누수 시 즉각적인 차단이 이뤄지지 않을 경우 DC피해가 크며 배관압력이 떨어지면 온도상승으로 이어질 수 있다. GPU가 고출력을 소모할 경우 발생하는 핫스팟 문제도 새로운 도전과제다. 이에 따라 CPU·GPU 상태를 정밀하게 모니터링할 수 있는 프로토콜과 초단위 대응 체계가 필수적이다.
또한 대규모 메가DC캠퍼스에서 BMS 스케일아웃기술을 적용해 한 관제센터에서 다수의 시설을 통합제어할 수 있다면 효율적인 운영이 가능할 것으로 예상된다.
어니언소프트웨어는 DC Opsware를 구축했으며 테스크관리와 SOP·MOP운영을 일원화하고 있다. 또한 인력부족 문제를 해결하기 위해 로보틱스를 도입해 순찰·정기점검을 자동화함으로써 인력부담을 줄이는 방안도 추진 중이다. 어니언 로보틱스는 연말에 시제품 공개가 예정돼 있다.
또 다른 과제는 방대한 데이터처리와 리포팅이다. 여전히 많은 현장에서 엑셀을 활용해 보고서가 작성되고 있으나 이는 시간과 비용을 과도하게 소모한다. 이에 따라 하나의 통합 툴을 통한 자동화된 보고 체계 구축이 생산성 향상에 핵심적인 역할을 할 것으로 전망된다.
사이버 보안문제 역시 중요하다. DC의 대규모 운영 데이터가 외부로 전송될 때 발생할 수 있는 보안 위험을 줄이기 위해 단방향 통신 방식을 적용해 데이터 유출 가능성을 최소화할 수 있을 것으로 기대된다.
어니언소프트는 테넌트가 실시간으로 서버운영 현황을 확인할 수 있는 API서비스도 구현 중이다. 특히 액침냉각 환경에서는 초단위문제 진단이 요구되는데 API를 통해 데이터손실을 방지할 수 있다.
조창희 대표는 “AI기술의 도입은 운영 효율성을 높이는 새로운 기회로 부상하고 있지만 실제 운영에 적용할 때는 책임 소재와 ROI 문제로 확산 속도가 더딘 상황”이라며 “AI제어 기능은 반드시 롤백 가능성을 내장해야 하며 운영 안전성을 담보하는 체계가 필요하다”고 말했다.
이어 “차세대 BMS 구축에서는 기존 레거시시스템을 전면교체하기보다 병렬운영 등의 방식으로 신기술을 적용하는 전략을 활용하고 있다”라며 “이를 통해 기축 데이터센터에서도 리스크 없이 BMS 업그레이드가 가능해지며, 운영 안정성과 효율성을 동시에 확보할 수 있을 것”이라고 강조했다.
급부상한 'AI데이터센터'
‘하이퍼스케일 및 AI주도시대의 멀티테넌트데이터센터 설계재고’를 주제로 패널토론도 진행됐다. △김기훈 CBRE 상무 △조헌혁 LG CNS 클라우드 데이터센터사업단 단장 △허철회 STT GDC 대표 △양정엽 DCI 데이터센터 상무 등이 참여했다.
김기훈 상무는 “AI데이터센터 구축은 더 많은 전력·부지 등을 확보가능한 비수도권지역에 건설하는 프로젝트라는 인식이 생겨나고 있다”라며 “수도권에선 멀티테넌트데이터센터가 여전히 필수이며 수도권에서는 하나의 데이터센터 안에서 AI를 서포트 하는 것에 그칠 것이며 지방으로 가야 AI만을 위한 데이터센터가 나타날 것으로 예상한다”고 말했다.
조헌혁 단장은 “AI데이터센터는 시대가 발달하며 자연스럽게 요구하는 전력량이 늘어난 것뿐 굳이 기존의 데이터센터와 구분짓는게 어색하다”라며 “다만 요구전력량이 높아진 만큼 리퀴드쿨링(수냉식 냉각)이 대세가 돼가고 있는 것은 사실”이라고 덧붙였다.
이어 “기존 센터들이 늘어나는 내부설비의 하중과 층고를 버티지 못해 문을 닫고 있는 상황”이라며 “내부 리소스들은 언제든지 바꿀 수 있기 때문에 건축적 측면에서 조금 더 투자를 키워나가길 바란다”고 강조했다.
허철회 대표는 “AI 워크로드는 지난해에 시작됐지만 30~40%의 빠른 성장률을 보이고 있어서 성장하는 기술력에 맞춰 발빠르게 준비할 필요성이 있다”라며 “사실 AI분야는 데이터센터 진화에 있어 하나의 콘텐츠에 불과하며 어떤 콘텐츠들이 계속 나올지 모르겠지만 거기에 맞춰갈 수 있는 유연성이 중요하다”고 말했다.
양정엽 상무는 “국내에서 AI데이터센터 관련 사업들이 주도적으로 이뤄지고 국가대표AI 같은 플래그십도 갖고 있다”라며 “하지만 이런 슬로건 뒤에 고객이 원하는 준비가 다 갖춰진건지 냉정하게 뒤돌아 볼 필요가 있다”고 지적했다.
이어 “AI는 앞단에서 발생하는 변화이며 디벨로퍼, 디자인, 운영 그리고 말단에 있는 유저들까지 충분한 대화를 거쳐야 효과적으로 대응할수 있다”라며 “AI수요를 쫓아가기 위한 준비가 최우선”이라고 강조했다.
AI-Ready DC, 고밀도 컴퓨팅수요에 대응할 차세대 인프라
최성민 원아시아코리아 대표는 AI-클라우드 대응형 DC구축사례를 소개했다.
최근 AI이슈가 트렌드인 가운데 AI DC가 실제 구현되기 위해서는 엄청난 데이터양과 고밀도 컴퓨팅파워가 요구된다. 기존 DC로는 감당이 어려운 환경으로 개발을 뒷받침할 인프라가 필요하다. 이에 따라 ‘AI-Ready DC’가 주요 키워드로 떠오르고 있다.
AI-Ready DC는 △전력밀도 △냉각방식 △컴퓨팅자원 △네트워킹확장성 등 측면에서 기존 DC와 차이가 있다. 기존센터는 일반 IT서비스, 어플운영, 클라우딩서비스 등과 같은 서비스가 목적이지만 AI DC는 AI모델 훈련과 추론을 위한 고성능 컴퓨팅파워가 요구된다.
또한 컴퓨팅리소스가 기존 CPU기반에서 GPU, AI가속기로 변환되는 추세다. 현재 GPU로는 엔비디아, 구글 GPU 등이 대표적이며 이중 엔비디아가 다양한 제품으로 시장을 독점하고 있다. 이때 GPU 변화로 인한 전력량이 증가하고 있다. 기존에는 3~20kW정도 전력이 소요됐다면 현재는 랙당 100kW 이상의 전력이 요구돼 자연스럽게 쿨링기술 변화로 이어지고 있다.
최 대표는 “공랭식으로는 전력량 증가를 감당할 수 없어 최근 액침냉각방식이 적용되고 있다”라며 “다이렉트 리퀴드쿨링(DLC), D2C 등을 활용해 전력효율지수(PUE)를 1.5정도까지 확보가능할 것”이라고 말했다.
스토리지분야 역시 변화하고 있다. 기존 데이터센터가 HDD 기반의 SAN·NAS 구조를 중심으로 운영됐다면 AI DC는 대량 데이터를 고속으로 처리하기 위해 NVMe SSD 병렬 파일시스템을 채택하고 있다. CPU와 SSD를 PCIe로 직접 연결해 전송속도를 극대화하는 방식이 대표적이다.
또한 기존 DC의 경우 서버관리, 스토리지관리, 클라우드 가상화 등이 중심이 됐지만 AI DC는 GPU 스케쥴링 등의 추가적인 기술개발이 필요하다.
최 대표는 “GPU에 따라랙당전력, 쿨링방식, 스토리지 등의 변화가 있다”라며 “원아시아는 다양한 형태의 AI컴퓨팅센터 구축경험과 자체적인 시스템을 통해 DC솔루션을 제공하고 있다”고 말했다.
이어 “아시아 최초로 엔비디아 DGX 슈퍼POD를 구축한 경험을 보유하고 있다”라며 “현재 부산 진해경제구역에 30MW 규모로 DC를 구축하고 있으며 내년 11월 준공돼 네트워크 전략요충지인 부산에서 중요한 역할을 할 것”이라고 말했다.
AI시대, DC패러다임전환 필수 흐름
모기진 HP코리아 전무는 ‘AI를 위한 DC’라는 주제로 최근 전 산업군에서 활용되고 있는 AI를 대응하고자 주목받고 있는 DC에 대한 전반적인 현황 및 전망 등을 공유했다.
모기진 HP코리아 전무는 “AI를 위한 데이터센터는 기존 클라우드형 데이터센터와 완전히 다른 설계철학이 필요하다”라며 “전통적인 데이터센터가 x86서버를 중심으로 표준화된 환경을 구축해온 반면 AI시대에는 대규모 GPU서버가 핵심이 되면서 전력과 냉각수요가 폭발적으로 증가하고 있다”고 설명했다.
AI모델 학습과 추론에 필요한 연산량은 수십~수천억단위의 매개변수를 처리해야 하는 규모다. 이에 따라 GPU서버의 밀집도가 높아지며 서버당 전력소모는 수백kW에 달한다. 전통적 공랭 방식으로는 20kW 이상 부하를 감당하기 어려운 것이 현실이며 고발열 서버환경에서는 액체냉각(liquid cooling) 등 새로운 해법이 대안이 될 것이다.
공랭방식은 초기 투자비가 낮으며 관리가 용이하지만 고성능 GPU서버의 발열을 처리하는 데 한계가 있다. 팬 동작으로 인한 소음과 에너지낭비도 문제다. 반면 액체냉각은 효율적으로 열을 제어해 PUE(Power Usage Effectiveness)를 크게 낮출 수 있어서 대형 데이터센터 운영비 절감에 큰 효과를 기대할 수 있다.
기업별 AI비즈니스 모델에 따라 데이터센터 설계전략도 달라져야 한다. 대규모 모델학습 중심이라면 GPU집약도가 높은 인프라가 필요하지만 추론중심 서비스라면 상대적으로 단순한 구성이 가능하다. 처음부터 비즈니스방향과 맞는 IT아키텍처를 정의하고 이후 공조·전력·냉각설계를 유연하게 적용하는 방식을 고려해봐야 한다.
모 전무는 “DC시장에선 에너지 절감과 안정성을 동시에 확보하는 것이 향후 핵심과제가 될 것”이라며 “대규모 HPC·AI 센터는 결국 액체냉각으로 갈 수밖에 없는 상황이며 글로벌시장과 비슷하게 국내 역시 초기에는 공랭과 액체냉각을 병행하다가 점진적으로 액체냉각 중심으로 전환하는 플렉서블 설계가 필요할 것”이라고 전망했다.