데이터센터 냉방 트렌드 ‘FREE COOLING’

  • 등록 2017-07-09
크게보기

전 세계 디지털 데이터량 2020년 40ZB</br>‘전기먹는 하마’ 냉방에너지 절감 ‘핵심’</br>데이터센터 커미셔닝, 새로운 업역 ‘부상’


데이터센터는 수많은 정보들을 보관하고 있는 저장소이자 사람이 아닌 전산장비들을 안정적으로 운영하는 장소다. 당연히 이러한 데이터센터에서 사용되고 있는 IT·기계설비는 막대한 양의 전력을 소모함으로써 ‘전기 먹는 하마’라는 별명을 가지고 있다.

인터넷 사용자가 늘어나고 모든 정보가 전산화돼 저장되는 만큼 전 세계의 데이터센터 개소도 늘어나고 있으며 점차 대형화되고 있는 추세다. 전 세계 인터넷 사용자 수는 2016년 34억2,500만명으로 조사됐고 이는 전체 인구의 46%에 해당되는 수치다. 또한 전 세계 디지털 데이터량은 2015년 7.91ZB(*)에서 2020년까지 40ZB까지 증가할 것으로 전망된다.

이대로라면 데이터센터에서 소모하는 전력비중은 기하급수적으로 늘어나야만 한다. 하지만 데이터센터를 운영하는 비용과 전력사용으로 인한 온실가스 배출에 대한 문제가 대두되고 있어 데이터센터의 에너지소모량을 최소화하기 위한 연구가 활발하게 진행되고 있으며 빠르게 적용되고 있다.

에너지소모량을 줄이는 방안은 효율적인 서버개발도 중요하지만 전체 에너지비중의 40%가량을 차지하는 냉각시스템 개선에 초점이 맞춰지고 있다. 데이터센터의 메인을 차지하고 있는 IT설비나 전력·통신, 조명, 기타설비의 경우 에너지개선에 대한 폭이 넓지 않다. 하지만 냉방설비는 효율적 설계 및 운영을 통해 상당량의 에너지절감 효과를 이끌어낼 수 있어 관련 연구개발이 활발하게 진행되고 있다.

최적환경 유지→에너지소모 절감 트렌드 이동

초기의 데이터센터는 에너지절약보다 서버 안전성에 초점을 맞춘 설계 및 운영이 이뤄졌다. 기존에는 데이터센터 내부 온습도 조건을 온도 21.5℃, 습도 45.5% 수준으로 매우 엄격하게 관리하며 서버설비 운영의 최적환경을 유지시켰다. 일정한 온도와 습도를 유지하기 위해서는 많은 에너지를 필요로 할 수밖에 없었다.

하지만 최근 IT분야의 기술적 진보로 장비의 내열성이 우수해지고 에너지비용 및 온실가스 배출에 대한 경고의 목소리가 높아지면서 실내조건을 좀 더 완화하는 방향으로 데이터센터 설계가 이뤄지고 있다.

미국냉동공조학회(ASHRAE)에서는 데이터센터의 온도를 18~27℃로 권장하고 최대 15~32℃(class1)와 10~35℃(class2)까지, 상대습도도 20~80%까지 그 기준을 완화했다. 실내온도를 1℃ 완화시킬 경우 4%의 운영비절감이 가능하다.

서버 제품 자체의 내구성 향상도 있지만 일반적으로 데이터센터에서 서버를 교체하는 주기가 3~5년이기 때문에 최적의 환경을 유지하는 것보다는 냉방수준을 낮춰 에너지비용을 절감하는 추세다. 사람과는 다른, 그리고 과거와 크게 달라진 서버의 민감도 등을 감안한 새로운 공조시스템이 고안, 운용될 수 있게 된 것이다.



자연에너지 활용 ‘외기냉방’
서버냉각에 필요한 에너지를 절감하기 위해서 가장 좋은 방법은 자연에너지를 활용하는 것이다. 실내 온습도 조건을 완화할수록 자동제어에서 요구되는 정밀도 및 민감도가 낮아지게 되므로 시간에 따라 온습도가 변하는 외기를 활용한 냉방 가능성이 커지게 된다.

춘천의 시간대별 온습도분포를 분석한 결과 연간 8,670시간 중 약 7,000시간 동안 외기냉방이 가능한 것으로 나타났다. 또한 기존과 같이 설정온도를 20~24℃로 기준하고 서울 도심의 데이터센터를 가정해 외기냉방 가능성을 분석한 결과 연중 약 5,936시간 동안 직접 외기냉방이 가능한 것으로 나타났다. 설정온도조건을 완화하고 외기냉방 시 일반 냉동기로만 운영하는 데이터센터대비 약 40%의 공조에너지를 절감할 수 있다.

해외의 경우 지리적으로 한랭지역에 위치한 데이터센터는 외기냉방시스템을 적극적으로 적용하고 있다. 특히 100% 외기냉방으로 냉동기가 없는 데이터센터는 PUE(Power Usage Effectiveness) 1.2 이하로 유지하고 있다. 미국 오리건 주에 위치한 페이스북의 데이터센터는 PUE 1.07을, 일본 홋카이도에 위치한 사쿠라인터넷은 PUE 1.11의 효율을 보이고 있다.

다만 과거의 엄격한 조건 하에 기계장치의 공조로 실내공기를 순환시켜 냉각하던 기존방식에 비해 온습도를 완화하고 외기를 직접 도입하는 경우 과거에는 중요하게 생각하지 않았던 몇 가지 요소들의 고려가 필요하다.

외기냉방에 의한 운전 중 데이터센터 급기온도가 상승하면 Hot spot이 형성될 가능성이 커지므로 냉기류 통과효율이 높아야 한다. 이에 따라 외기냉방 데이터센터에서는 복도 컨테인먼트(aisle containment) 적용이 필수적이다. 적정 환기온도를 유지하며 급기온도와 환기온도 차이가 과도하게 커지는 것을 방지할 수 있다.

또한 고압 수분무로 유입공기의 증발냉각을 유도하는 수분무 증발냉각도 필요하다. 수분의 기화열을 이용한 냉각시스템으로 외기냉방시스템과 더불어 냉동기 등 별도의 열원장비 없이 냉각 및 가습이 가능하다. 수분무를 활용하면 외기온도는 기준보다 2~3℃ 높지만 습도는 낮은 시간대에서도 외기냉방이 가능하게 된다. 대풍량 배기처리로 데이터센터 내 Hot spot을 방지해야 하며 외부에서 유입되는 먼지 등을 차단하기 위한 고성능 필터 적용도 수반돼야 한다.

특히 에너지소비를 최소화하고 안정적인 운전을 위해 외부와 실내 온습도 조건을 적절히 모니터링하고 제어장치들의 실내외 상태변화에 적절히 대응할 수 있는 고성능 자동제어시스템도 함께 고려돼야 한다.


물 이용한 ‘간접 증발 냉방’
증발 냉각방식은 액체가 기체로 변할 때 주변의 열을 흡수해 온도가 낮아지는 현상을 이용한다. 여름철 더운 바닥에 물을 뿌리면 물이 증발하면서 주위 온도를 낮추는 원리와 같다. 국내에서는 아직까지 생소한 냉각방식이지만 송풍용 에너지를 제외하면 추가적인 에너지소비가 없어 매우 경제적이며 친환경적인 방식이다.

외기를 직접 사용하는 외기냉각 방식은 분진 유입에 의한 서버고장의 방지를 위해 필터적용이 필수적이며 미세먼지, 송화가루 등을 차단하기 위해서는 고성능 필터가 필요해 팬 동력상승과 필터교체 등 유지관리 비용이 증가되는 단점이 있다.

이렇듯 외기를 직접 사용하거나 직접 기화를 이용할 경우에는 서버의 오염이나 부식을 고려해야 하지만 간접 증발식 냉각시스템은 이러한 위험을 줄일 수 있다. 간접 증발식 냉각시스템은 전기에너지가 아닌 자연에너지와 물질의 상태변화를 이용하는 자연친화적인 Free Cooling 방법이며 상태변화물질로는 여러 가지가 있지만 가장 쉽게 사용할 수 있는 것이 물이다.

간접 증발식 냉각시스템을 국내에 적용한 N사 데이터센터의 2015년 11월부터 2016년 10월까지 실제 측정데이터를 근거로 pPUE를 계산한 결과 연평균 pPUE가 1.093으로 일반 항온항습기의 평균 pPUE 1.34대비 전력사용량을 70%가량 절감한 것으로 나타났다.

간접 증발식 냉각시스템은 실내 발열부하가 높은 데이터센터에 효과적으로 사용할 수 있으며 컨테인먼트를 구성할 경우 시너지효과를 낼 수 있다.

CFD, 리스크 없이 위험요인 분석
데이터센터 설계 시 효율을 극대화하기 위한 최신 솔루션을 적용은 매우 도전적인 일이다. 특히 제한된 시간과 비용 내에서 건물주가 원하는 요구조건을 만족시키는 것은 까다로운 일이다. 일반적으로 데이터센터의 설계는 많은 경험을 기반으로 이뤄지지만 시뮬레이션을 통한 해석이 적용된다면 다음 단계에서 발생할 수 있는 예상치 못한 문제들에 대한 대처가 가능하다.

CFD(Computational fluid dynamics: 전산유체역학)는 데이터센터 내 열흐름을 예측하고 설계·설비 추가 시 변화를 예측할 수 있다.

Google, Facebook, Dell, Cisco 등 해외 유명기업들은 물론 국내 네이버, KT, NH, LG U+, NHN 등 대규모 데이터센터 구축 시에도 검증도구로 활용되고 있다. Basic, Concept Design의 검증 및 실행검토를 위해 많이 사용하고 있으며 정확도 및 에너지효율 즉 PUE를 가늠할 수 있는 툴로도 사용된다.

데이터센터의 구조, IT 장비배치 등으로 인한 열흐름 분석, Hot spot 및 과다부하지점 등을 확인하는 동시에 문제가 발생할 경우를 설정해 시설의 대응정도를 예측할 수 있다. 이러한 위험요소를 실험이 수반하는 리스크 없이 발견할 수 있다는 것이다.

특히 데이터센터 운영 중에도 장비의 추가 변경이 이뤄질 경우 CFD 시뮬레이션으로 미리 영향도를 평가할 수 있다. 하지만 관련업계에 따르면 국내 대부분 데이터센터는 설계 시에만 CFD 시뮬레이션을 실시하고 서버 등 설비변경 시에는 이러한 시뮬레이션을 실시하지 않는다. 서버모델마다 발열의 정도, 흐름의 특성이 있고 위치가 변경될 때마다 서버실 전체의 열흐름에 영향을 미칠 수 있어 리스크와 에너지낭비가 발생하기 때문에 CFD의 중요성 인식이 확대돼야 한다는 것이다.

토탈 커미셔닝, 중요성 부각
데이터센터는 전기시스템의 정전 혹은 장비의 예상치 못한 고장 등이 발생할 경우 기본 목적인 ‘안정적이며 지속적인 IT서비스 제공’이 어려워진다. 이에 따라 돌발상황에서도 시스템의 안정성을 유지할 수 있는 백업시스템과 무정전시스템 구축이 중요하게 부각되고 있다.

에머슨일렉트릭에서 2016년 발생한 ‘Cost of data center outage’ 보고서에 따르면 정전된 피해사례가 있는 데이터센터 63곳을 조사한 결과 지난 2010년에 비해 2016년 발생한 피해금액이 38% 증가했으며 1개 데이터센터 피해금액은 5억9,000만원에서 8억6,000만원으로 늘어난 것으로 나타났다.

주요 사고 원인은 백업시스템 고장과 시설관리자의 운영미숙으로 인한 것이었으므로 초기 단계부터 시스템에 대한 검증과 시설관리자에 대한 교육이 필요하다. 또한 IT기술이 발달함에 따라 처리해야 할 발열부하도 급증하고 있고 공조설비규모 역시 증가하고 있으므로 운영비절감 및 친환경성을 고려해 건물의 효율을 높일 필요가 있다.

이러한 요인을 고려했을 때 미래지향적인 데이터센터 구축을 위해 중요한 사항은 안정성과 효율성능이다.

커미셔닝은 건축주의 의도대로 건물이 설계, 시공, 운영이 될 수 있도록 성능을 검증하는 분야로 안전한 설계, 완벽한 설계를 위한 과정이라 할 수 있다. 각 요소기술에 대한 검증을 통해 최상의 품질을 갖춘 안정적인 시스템을 목표로 하는 과정인 것이다.

특히 시설관리자를 대상으로 교육을 수행해 건축주의 의도대로 건물을 운용토록 하고 문제발생 시 대처방안과 응급조치 방법, 효율적인 운영방안, 장비 관리 및 유지보수 방안을 숙지시키는 것까지 포함된다.

국내에서는 아직 건물주의 인식부족, 절차 및 장비부족 등 기술과 제도적 장애들로 인해 활성화가 미흡하지만 모두를 위해 반드시 필요한 과정이다. 효율성이 좋은 안전한 건물, 친환경적인 건물을 지향하는 것이기 때문이다.

이에 따라 전체 과정을 체계적으로 관리하고 검증하는 커미셔닝 프로세스를 도입해 안정성과 효율성능을 모두 겸비한 데이터센터를 구축하는 것이 업계의 새로운 사업영역으로 떠오르고 있다.
최인식 기자 ischoe@kharn.kr
저작권자 2015.10.01 ⓒ Kharn



  • youtube
  • facebook