한국데이터센터에너지효율협회(KDCEA)는 데이터센터(DC)분야의 산·학·연·정간 유기적인 협력체계를 구축해 산업 내 소통의 장을 마련하고 인력양성, 컨설팅 등 고유사업을 추진하기 위해 2022년 창립됐다. 대정부 정책활동은 물론 국내‧외 DC시장조사 및 산업동향 분석 등을 통해 산업계 역량강화와 시장활성화를 도모하고 있다.
최근 KDCEA는 액침냉각(Immersion Cooling)을 주제로 올해 첫 이슈페이퍼(Issue Paper)를 발간해 배포했다. 송준화 KDCEA 사무국장을 만나 액침냉각시스템 기술‧산업동향에 대해 들었다.
■ 액침냉각이 미래트렌드로 부각되는데 클라우드컴퓨팅, 사물인터넷(IoT), 빅데이터, 딥러닝(DL) 및 머신러닝(ML)과 같은 IT기술이 발전했으며 이에 대한 수요가 폭발적으로 증가하고 있다. 최근에는 이러한 IT발전을 넘어 인터넷 연결만 되면 누구나 쉽게 이용 가능한 AI 도구인 ChatGPT와 같은 생성형AI가 등장해 기술혁신을 가속화하고 있다.
이에 따라 이들 IT서비스를 위한 컴퓨팅파워를 제공 하고 데이터저장을 위한 DC수요도 함께 증가했다. 이는 DC 집적도 증가로 이어지고 있다.
기존 랙(Rack) 대비 고집적 랙은 더욱 많은 열을 발생시키며 이러한 고집적 랙 냉각에 기존 공랭식은 분명한 한계를 가지고 있다. 최근 이러한 고집적 랙 발열을 효과적으로 제어할 수 있는 액침냉각에 대한 관심이 높아지고 있다.
액침냉각은 비전도성 액체에 서버를 담가 IT장비에서 발생되는 열을 식히는 방식으로 공냉식에 비해 더 높은 냉각 성능을 제공한다. 냉각에 필요한 전력사용량 절감으로 DC 운영비용도 절감할 수 있으며 기존 냉각방식대비 DC 상면활용도를 높일 수도 있다.
이에 따라 액침냉각은 DC산업 성장 및 집적도 증가와 함께 중요한 미래기술로 주목받고 있으며 이를 통해 DC 전력효율성을 크게 높일 수 있을 것으로 기대된다.
■ DC E수요와 고밀화 증가추세는
글로벌 데이터센터 인증기관인 업타임 인스티튜트(Uptime Institute, 이하 업타임)에 따르면 2025년 DC 전력사용량이 현재보다 약 50% 이상 증가할 것으로 예측했다. 슈나이더 에너지관리 연구센터는 현재 AI가 약 4.3GW 에너지수요를 발생시키고 있으며 이는 연평균 26~36% 증가해 2028년 약 13.5~20GW의 에너지수요를 요구하게 될 것으로 예측했다. 이는 AI에 대한 에너지수요가 DC 전체 사용에너지에서 약 20% 이상을 차지하게 된다는 것을 의미한다.
AI기술이 원활히 구현되기 위해서는 AI 알고리즘이 스스로 판단하고 의사결정을 할 수 있도록 수많은 데이터를 학습시켜야 하며 이를 위해 엄청난 양의 컴퓨팅파워가 필요하다. 결국 AI의 원활하고 효율적인 구동을 위해서는 GPU 서버와 같이 대용량 컴퓨팅파워와 데이터저장을 가능케 하는 대형 DC가 필수적이며 이러한 AI DC는 기존 DC보다 더 많은 열이 발생된다.
DC는 증가하는 AI수요에 더 효과적으로 대응하기 위해 지금보다 더 효율적이며 안정적인 냉각방식을 찾기 위해 노력하고 있으며 최근 다양하게 시도되고 있는 여러 냉각방식 중 가장 주목받고 있는 방식이 바로 액침냉각 기술이다.
■ 액침냉각시스템 중 1상‧2상형 장단점은
액침냉각시스템에는 1상(Single-Phase)형과 2상(Two-Phase)형 방식이 있으며 두 가지 방식 모두 기존 냉각방식대비 뛰어난 전력사용효율지수(PUE)를 보인다. 1상형은 냉매 상태변화가 없는 단일상 순환냉각시스템이며 2상형은 냉매가 끓어 수증기를 발생시키는 방식이다.
비용적인 측면에서 본다면 1상형 냉매로 사용되는 탄화수소(Hydro-Carbon)계 용액은 2상형 냉매로 사용되는 불소(Flouro-Carbon)계 용액에 비해 더 저렴하다는 장점이 있다.
초기 설계비용 측면에서도 2상형은 응축코일이 있는 밀폐형 수조나 탱크가 필요하기 때문에 복잡한 설계와 더욱 많은 초기투자가 필요한 반면 1상형은 비교적 간단한 설계로 설치가 가능하다.
2상형은 GRC사의 연구에 따르면 평균 PUE를 1.01~1.02로 가져갈 수 있어 1상형 평균 PUE 1.02~1.03에 비해 전력사용효율에서 근소하게 우위를 점하고 있다. 또한 각 시스템의 잠재적 전력밀도 측면에서도 2상형이 랙당 250kW 이상, 1상형이 랙당 200kW 이내의 전력밀도를 수용 가능하다고 발표했다.
현재 상업적인 목적으로 100kW를 초과하는 랙은 요구되고 있지 않아 영향이 크지는 않을 것으로 보이지만 향후 신규 DC에 도입이 예상되는 고발열 AI 및 ML용 서버는 랙당 100kW를 가뿐히 초과할 것으로 예상된다.
■ 액침냉각용 냉매동향은
1상형시스템 개발사 측에서는 탄화수소계 용액을 사용하는 1상형의 경우 정기적인 냉매보충이 필요하지 않으며 서버에 쉽게 접근할 수 있어 시스템 운영기간 동안의 유지보수비용이 절감될 수 있다고 주장한다.
1상형에 사용되는 냉매는 최근 여러 기업이 개발 중이며 대표적인 회사는 쉘(Shell), 캐스트롤(Castrol), 서브머(Submer), GRC, 푸크스(Fuchs) 등과 같은 외국계 기업이다. 이들은 주로 친환경소재나 혼합 합성용액으로 인체에 무해한 냉매개발을 목표로 하고 있으며 국내기업으로는 GS칼텍스, SK엔무브, SK이노베이션, S오일, HD현대오일뱅크 등 주로 정유사가 액침냉각용 냉매를 개발 중이다.
1상형 시스템의 냉매로 주로 활용되는 탄화수소 용액은 국내 위험물안전관리법에 따른 규제를 피하기 위해 발화점을 250°C 이상으로 높이지 않으면 6,000리터 이하로 사용량에 제한을 받게 된다는 점이 이용에 한계로 작용할 수 있다. 하지만 용액의 발화점을 올리면 점도가 증가할 수밖에 없으며 이는 결국 냉각성능에 영향을 미칠 수 있다.
2상형 개발 및 공급사에 따르면 불소계 냉매를 사용하는 2상형에 비해 탄화수소 기반 오일을 냉매로 사용하는 1상형에 대한 설치 및 유지보수 비용이 상대적으로 저렴하지만 1상 시스템은 오일의 점도, 물성의 변화, 불순물 발생에 따른 필터사용과 폐오일 폐기 등 문제가 부상하고 있다고 경고한다. 또한 2상형에 사용되는 불소계 용액은 탄화수소 오일류보다 상대적으로 쉬운 폐기, 재활용을 통한 반영구적 사용, 유지보수 용이성 등 장점이 있다고 주장한다.
2상형 불소계 용액 제조사는 현재 3M, 케무어스(Chemours), 솔베이(Solvay) 등이 있다. 불소계 냉매는 3M의 Novec 649가 대표적이지만 최근 불소계 용액의 유해성(환경 및 인체 독성 등) 논란이 이슈화되며 생산이 중단된 바 있다.
2상형 냉매에서 이러한 논란이 지속되는 이유는 일부 불소계 용액이 지구온난화지수(GWP)가 높거나 과불화화합물(PFAS) 유해성에 대한 우려가 있기 때문이지만 아직까지 인체유해성이 증명되지는 않았다. 2016년 로렌스 버클리 국립연구소(Lawrence Berkeley National Lab)는 자체연구를 통해 2상형이 인체 및 호흡기에 유해한 영향을 미친다는 증거가 발견되지 않았다고 발표했다.
이후 여러 매체에서 조사한 결과 3M Novec 649 생산이 중단된 주된 이유는 액체자체의 유해성 때문이 아닌 잘못된 PFAS 폐기물 처리방식으로 인한 조치였던 것으로 밝혀졌다.
■ 랙밀도 증가추세는
DC 전력밀도는 과거 랙당 2~8kW 수준이었지만 최근 10~20kW 수준까지 증가했으며 향후 생성형AI 등에 대한 수요 증가로 35~100kW 이상까지 늘어날 전망이다.
NVIDIA는 지난 3월 18일 차세대 AI GPU인 ‘B200’ 블랙웰(Brackwell)을 발표했으며 더 강력한 연산성능 제공을 위해 72개의 B200 GPU와 36개의 Grace CPU로 구성된 데이터센터용 ‘GB200 NVL72’를 함께 선보였다. 이 모델의 최대 열설계전력(TDP)은 100kW를 가뿐히 넘을 것으로 예상된다.
■ 액침냉각 적용 해외사례는
액침냉각 도입은 DC 총전력소비를 줄이며 냉각시스템을 보다 단순화하는 등 다양한 이점을 제공한다. 미국에서는 이미 몇몇 DC에서 액침냉각을 도입·운영하고 있으며 이를 통해 액침냉각 효과를 입증하고 있다.
먼저 미국 텍사스 휴스턴에 위치한 DUG(Down Under Geo Solutions)와 스카이박스(Skybox)가 합작으로 2019년 건립한 맥클라우드(McCloud) DC는 총 2만2,000㎡ 전산실 내부에 15MW 전력의 ‘부바(Bubba)’ 슈퍼컴퓨터를 도입했다. 이 HPC는 오픈 Bath 1상형 액침냉각시스템으로 구성됐으며 열교환기가 전산장비들과 함께 냉매에 침전된 점이 특징이다.
마크 롬머스(Mark Lommers) DUG 수석엔지니어는 전통적인 냉수냉각시스템의 경우 컴퓨팅 파워 1MW당 1.55MW의 총 전력이 요구되지만 액침냉각은 냉수펌프와 냉각기 등이 필요하지 않아 실제 총 전력은 1.014MW에 불과하다는 내용을 공개했다.
다른 사례로 마이크로소프트(MS)는 2021년 대만 서버제조기업 위윈(Wiwynn)과 협력해 워싱턴주에 위치한 자사센터 내 공공 클라우드 워크로드를 위한 2상형 액침냉각 솔루션을 도입했다. 당시 MS는 콜롬비아 강변에 위치한 센터내부에서 자사 워크로드를 처리하는 컴퓨팅 서버들이 액체로 냉각되고 있으며 액침냉각 기술을 활용하고 있다고 발표했다.
맥클라우드DC와 마찬가지로 액침냉각이 도입된 MS DC도 냉각에 필요한 인프라가 크게 감소됐으므로 공기처리장치나 냉각기가 필요하지 않으며 향상된 상면효율로 인해 기존 서버 냉방효율도 덩달아 상승했다고 전했다.
이와 더불어 이 DC에서 활용되는 서버는 일반 서버에 비해 크기가 작고 탱크 바닥의 전원 커넥터에 이중으로 연결된다. 이러한 냉각방식의 또다른 장점은 폐열을 더욱 효과적으로 집중시킬 수 있어 실제 폐열을 활용한 지역난방 공급 시나리오를 가능하게 할 수 있다는 점이다.
MS의 관계자는 자사의 액침냉각 솔루션의 경우 고객이 원하는 수준의 고밀도와 저밀도를 모두 구현 가능하며 고밀도 구성 시 단일탱크로 100kW 이상의 발열량까지 처리 가능하지만 MS의 모든 DC에 이 시스템을 적용하지 않은 이유는 해당 솔루션이 현재 진행단계로 이를 이용하는 직원들에 대한 추가적인 교육이 요구되고 있으며 안전성에 대한 보완이 아직 조금 더 필요하기 때문이라고 밝힌 바 있다.
■ 국내 액침냉각 보급동향은
국내에서도 최근 액침냉각을 자체 개발하고 실제 검증까지 거쳐 상용화에 박차를 가하는 사례들이 늘어나고 있다.
2023년 SKT는 4개월간 테스트 끝에 액침냉각 기술검증에 성공했다고 발표했다. SKT는 GRC 액침냉각 솔루션을 10년 이상 안정적으로 운용 중인 미국 내 레퍼런스사이트를 직접 방문해 시스템성능과 지속가능성을 확인했으며 테스트 결과 기존 공냉식대비 냉방전력 93%, IT 전력 10% 이상을 절감해 총 전력의 37%가 절감되는 효과를 확인했다.
또한 SKT는 지난해 4월 미국 GRC 액침탱크와 SK엔무브 특수냉각유(ZIC-GC2)를 사용, 인천 자사 AI DC에 액침냉각을 구축했으며 6월부터 시스템 성능, 안정성, 비용효율 등을 검증했다.
SKT는 이번 검증을 통해 입증된 자체 DC 모니터링 솔루션을 SK엔무브의 열관리사업과 결합해 액침냉각사업에 본격적으로 나설 계획을 발표했다.
다른 사례로 올해 2월 삼성물산은 국내 냉각기술 전문기업인 데이터빈과 협업해 DC 액침냉각 시스템을 자체개발했으며 자체기술로 OCP(Open Compute Project) 표준에 부합하는 결과를 확보했다. 향후 상용화에도 속도를 낼 예정이다.
삼성물산과 데이터빈이 자체 개발한 DC 액침냉각시스템은 기존 공냉식과 비교했을 때 DC냉각에 필요한 전력량의 약 80% 이상을 절감하는 것으로 확인됐으며 이를 통해 PUE 1.02를 달성할 수 있다는 결과를 발표했다.
또한 삼성물산과 데이터빈은 자신들이 개발한 액침냉각 솔루션의 시장확대를 위해 국내‧외에서 동시특허 출원 중으로 이미 국내에서 1건의 특허를 등록 완료한 상태다.