서울에서 경부고속도로를 타고 한 시간여를 달려 충남 목천IC를 빠져나오면 추수가 끝난 들녘이 눈앞에 펼쳐진다. 5분여 더 달리면 KT의 야심작인 클라우드데이터센터(CDC)를 만날 수 있다.
센터 입구엔 빨간색으로 쓴 ‘KT 클라우드센터’ 로고가 뒷 산자락에 물든 가을빛과 절묘한 조화를 이룬다. 대지면적 10만8663㎡(3만2000평) 규모를 자랑하는 이곳이 바로 KT가 지난 5월부터 공들여 만들고 있는 국내 최초의 클라우드 전용 데이터센터다. 지난 16일 찾은 KT CDC는 본격적인 센터 오픈을 위해 막바지 인테리어 작업이 한창이었다.
“KT의 목동 인터넷데이터센터(ICC)를 생각하고 오셨으면 크게 실망하실 텐데요. 여기는 KT 목동 ICC의 10분의 1도 채 안 됩니다.”
현장에서 만난 KT 클라우드추진본부의 클라우드인프라담당 조효열 부장은 기자와 대면하자마자 다소 겸연쩍어 했다.
사실 최신 설비를 갖춘 대규모 데이터센터를 방문해본 사람이라면 KT CDC는 한눈에 보기에도 초라한 모습이다. 허허벌판에 단층 건물 하나가 전부기 때문이다.
KT는 왜 이런 곳에 CDC를 구축했을까. 이곳은 KT가 1998년에 저궤도 위성사업을 위해 구축했던 위성센터였다. 하지만 사업이 중단되면서 지난 몇 년간 쓸모없이 버려져 있다시피 했다. 이 공간이 KT의 차세대 주력사업 중 하나가 될 클라우드컴퓨팅의 심장부로 재탄생한 것이다. 마이크로소프트가 빈 창고를 활용해 가장 최신식의 데이터센터를 구축한 것처럼 말이다.
서정식 KT 클라우드추진본부 상무는 “CDC를 갖추려면 확장성을 고려한 충분한 대지면적과 용이한 전력 확보, 4m 이상의 높은 층고 등 몇 가지 조건을 충족해야 한다”며 “이 건물은 그런 조건을 모두 갖춘 최적의 공간”이라고 설명했다.
초기 검토 과정에서 KT는 오창에 신규 CDC를 새로 짓는 것도 고려했다. 이 경우 무려 2000억원이나 투자해야 했지만 기존 위성센터를 그대로 활용함으로써 고작 40억원의 비용으로 CDC를 구축할 수 있었다고 한다.
게다가 천안 CDC는 자체 프라이빗 클라우드와 외부 고객을 위한 퍼블릭 클라우드용 인프라를 모두 수용하는 독특한 센터기도 하다.
◇‘올레 KT’ 상표가 부착된 랙=가장 먼저 찾은 곳은 CDC의 핵심이라 할 수 있는 서버룸이었다. 서버룸에 들어서니 일반 데이터센터보다는 따뜻한 느낌을 받았다. 일반 데이터센터의 경우 평균 22도를 유지하도록 냉각시스템을 운영하고 있지만 KT CDC는 고집적 서버시스템이 구축돼 있어 바닥 온도는 22도, 천장 온도는 26도를 유지하도록 설계돼 있기 때문이다.
KT는 향후 인텔과 삼성전자 등 서버 부품사들과의 협력으로 더 높은 온도에서도 안정적으로 시스템을 운영할 수 있도록 해 냉각 비용을 절감한다는 계획이다. 데이터센터 1도는 냉방전력 비용의 10%를 좌우한다는 게 KT 측의 설명이다.
서버룸은 언뜻 보기엔 여느 전산센터와 큰 차이가 없어 보인다. 하지만 시스템 앞에 다가서면 차이점을 바로 확인할 수 있다. 일반 데이터센터에 가면 IBM·HP·델 등 시스템별로 브랜드가 선명하게 표시돼 있다. 하지만 KT CDC 서버룸에는 모든 시스템에 올레 KT 브랜드가 찍혀 있다. KT가 범용 하드웨어 부품을 들여와 직접 조립한, 말그대로 KT 브랜드의 시스템인 것이다.
서버룸엔 여전히 시스템 구축 작업이 한창이었지만 랙 기준 24대의 시스템만으로도 충분히 그 위엄을 자랑했다. 하나의 랙에는 답답하게 보일 정도로 많은 서버와 스토리지가 촘촘히 정렬돼 있었다. 눈으로 봐도 고집적 시스템인지를 쉽게 알 수 있다. KT는 범용 하드웨어 사양을 표준화해 랙당 서버 집적률을 높임으로써 물리적 집적도를 최소 두 배에서 최고 네 배 이상 개선했다.
게다가 가상화를 통한 논리적 집적도는 5배에서 많게는 25배까지 높였다. 결국 랙당 서버 집적도가 최소 10배에서 최대 100배까지 늘어났다. 따라서 상면공간도 그만큼 줄일 수 있었다. 서버실이 고작 80평 남짓한 이유도 여기에 있었다.
조효열 부장은 “얼마나 고집적인지는 랙당 소비전략량만 봐도 알 수 있다”며 “현재 KT CDC는 랙당 소비전략량이 11㎾ 수준”이라며 “목동 ICC의 경우 평균 3㎾ 정도며, 일본에서도 고집적으로 구성했다 하더라도 6㎾ 수준”이라고 말했다. KT는 2011년까지 22㎾ 수준까지 집적도를 올린다는 계획이다.
KT는 이러한 서버룸을 세 곳에 나눠 구성했다. 나머지 서버룸 두 곳은 아직 시스템들이 들어와 있지 않았다. KT는 내년까지 KT 사내시스템을 이관해 오면서 이들 서버룸을 활용할 계획이다. 또 향후 별도의 전용공간을 원하는 버추얼 프라이빗 클라우드 서비스를 위해서도 서버룸을 분리해 뒀다.
◇국내 최초 ‘컨테인먼트 시스템’ 구축=시스템을 고집적으로 구성한 만큼 소음 우려도 클 것이라 예상했다. 하지만 KT 측 답변은 의외였다. “도심에 있었으면 소음 때문에 신고가 들어올 만도 하지만, 이곳은 허허벌판인 만큼 누구도 신경쓰지 않는다.” 서버룸에서 대화하기 힘들 정도로 소음이 심하지만 전혀 개의치 않는다는 것이다.
대신 고집적 시스템으로 구성한 만큼 전원과 발열 문제 등은 철저하게 신경썼다. 국내 최초로 컨테인먼트 시스템을 도입한 이유도 여기에 있다. 컨테인먼트 시스템은 랙에 비닐하우스처럼 껍데기를 씌워 이를 천장까지 연결하는 방식을 말한다. 이렇게 하면 냉기와 온기가 섞이지 않아 냉방 효율을 높일 수 있다.
국내에서는 아직 생소하지만 해외 데이터센터에서는 많이 사용하는 방식이다. KT는 앞서 컨테이너와 컨테인먼트 방식을 놓고 고민하다 최종적으로 컨테인먼트를 선택했다. 컨테이너의 경우 8.9평 규모의 컨테이너 한 박스 안에 클라우드용 시스템이 모두 채워져야 효율성이 높은데, KT는 단계적으로 시스템을 확장해 나가는 전략을 고수하고 있기 때문에 적합하지 않다는 판단에서다.
서 상무는 “컨테이너 제공업체가 대부분 자사 시스템에 최적화해 구조물을 설계하기 때문에 공급업체에 종속될 가능성이 높다”면서 “컨테이너 방식은 데이터센터를 지을 건물과 땅이 없는 경우에는 적합했지만 KT 입장에서는 낭비요인이 많았다”고 설명했다.
이외에도 KT는 원활한 냉기 공급과 열기 배출을 위해 이중 마루와 이중 천장을 함께 도입했다. 이중 마루와 이중 천장의 높이는 각각 900㎜다. 고집적 랙의 발열량에 충분한 풍량을 공급할 수 있도록 설계한 것이다.
일반적으로는 둘 중 하나만 구성하고, 이중 마루나 이중 천장의 높이도 일반적으로는 600㎜ 정도로 한다.
서버룸을 나와 냉각기계실에 가면 버퍼탱크라는 특이한 장비가 눈에 띈다. 쉽게 말해 찬물 저장고다. 10톤짜리 버퍼탱크 2대가 설치돼 있는데, 만일 냉각기가 멈추게 되면 저장해둔 찬물을 활용해 서버룸의 온도를 낮추는 역할을 한다. 냉각기가 다운되면 고집적 데이터센터의 경우 단 1분 만에 데이터센터 온도가 40도 이상 올라가 시스템에 치명적인 악영향을 준다는 게 KT 측 설명이다.
◇LED 조명에다 태양열 전기까지=CDC 관리실은 최첨단 데이터센터 설비에 비해 상대적으로 썰렁한 분위기다. 하지만 여기에도 이유가 있었다. 자동화 기반의 셀프 서비스와 통합관제 솔루션 등을 도입해 대부분의 업무를 원격에서 관리하도록 했기 때문이다. CDC에는 최소 인원만 두기로 한 것이다.
이외에도 KT CDC에는 국내 데이터센터 처음으로 LED 전등이 설치돼 있다. 이 역시 발열량을 줄이기 위해서다. 이처럼 발열량을 줄이기 위한 KT의 세심한 노력이 곳곳이 숨어있었다.
앞으로 KT는 천안 CDC 용지에 태양열 전기설비도 갖출 계획이다. 서 상무는 “환경친화적이면서도 저비용의 고효율 시스템을 구축하는 것이 핵심 목표 중 하나”라면서 “앞으로 전 세계에서 주목받는 그린 CDC로 자리매김해 나가도록 하겠다”고 자신했다.
KT는 내년까지 KT 사내 프라이빗 클라우드 환경을 구축하기 위해 전국 각지에 흩어져 있는 8000여대 서버를 천안 CDC로 통합할 계획이다. 또 오는 12월부터 퍼블릭 클라우드 서비스도 본격적인 상용서비스에 들어간다. 내년에는 추가 상면 확보를 위해 천안 CDC 부지 내에 비슷한 규모의 CDC를 하나 더 짓는다는 계획이다.
KT 천안 클라우드데이터센터(CDC)의 주요 특징
-고집적 서버랙 수용(랙당 전력소비량 11㎾)
-국내 최초 컨테인먼트 도입
-냉수 보관용 버퍼탱크 구축
-건물 전체 LED 전등 설치
-높은 층고 통해 이중마루·이중천정 구성
-원격 무인 운용
성현희기자 sunghh@etnews.co.kr
-
성현희 기자기사 더보기