AI시대, DC혁신 가속… 냉각·에너지·인프라 전략 총망라

  • 등록 2025-07-21
크게보기

2025 데이터센터 서밋 코리아, 업계 리더가 제시한 지속가능한 DC산업 미래

 

한국데이터센터연합회(KDCC)와 전자신문이 공동 주최한 2025 데이터센터(DC) 서밋 코리아가 7월14일 서울 코엑스 그랜드볼룸에서 성황리에 개최됐다. 국내 DC산업을 대표하는 이번 행사는 ‘지속가능한 DC산업 A to Z’를 주제로 AI 인프라 확산 속에서 냉각기술, 에너지효율, 인프라 전략, 보안 등 다양한 현안을 집중 논의하는 자리로 마련됐다. 업계 주요기업과 전문가들이 대거 참여해 급변하는 AI 시대 DC산업 방향성을 공유했다.

 

기조강연 세션에서는 △AI가 바꾸는 데이터 보안체계: 기업의 선택은(황성우 넷앱 상무) △AI Data Center 냉각기술 트랜드 및 솔루션 소개(이명규 LG전자 팀장) △AI 시대 데이터중심 보안과 Identity 보안관리의 중요성(위수영 메가존클라우드 리더) △AI DC로의 발전: 에너지효율과 성능을 모두 잡는 최신 인프라 전략(강준범 HS효성인포메이션시스템 PM) △KOREA DATACENTER MARKET 2025–2028(김용희 한국데이터센터연합회(KDCC) 책임연구원)이 발표돼 DC기술·시장·보안 전반에 걸친 전략과 전망을 제시했다.

 

이후 진행된 △Data Center Technology △Data Center Services △Data Center Equipment 등 3개 트랙세션에서는 △AI DC 리퀴드쿨링 설계사례(한상모 에이알시스템 대표) △Hybrid ESS를 통한 전력영향평가 및 분산에너지 활성화 대응방안(문규영 이온 상무) △급변하는 AI DC 인프라에 대응하는 방안: DLC-2, DCBBS(김성민 슈퍼마이크로코리아 상무) 등 총 21편의 발표가 이어졌다.

 

행사장에는 별도의 전시공간도 마련돼 △강원도 △KDCC △슈퍼마이크로컴퓨터 △디포그(DEFOG) △에이알시스템 △LG전자 △이피코리아 △스탠다드(STANDARD) 등 주요 기관과 기업들이 부스를 운영하며 제품과 기술을 소개했다.

 

LG전자, “고밀도 서버환경, 냉각로드맵 근본적 전환필요”

 

이명규 LG전자 팀장은 기조강연에서 AI DC가 요구하는 새로운 냉각기술 방향과 LG전자의 최신 솔루션을 심도 있게 소개하며 “AI 서버는 기존 DC와 비교할 수 없을 만큼 높은 발열밀도를 가진다”라며 “냉각기술과 인프라를 동시에 혁신하지 않으면 안정적인 운영이 불가능하다”고 강조했다.

 

LG전자는 1970년대부터 칠러생산을 시작해 60년 가까운 경험을 보유하고 있다. 1983년 원자력발전소용 칠러를 공급하며 산업용 시장에 진출했고 2012년에는 글로벌 인증을 취득해 신뢰성 있는 제품을 확대했다. 2017년에는 마그네틱 베어링을 적용한 무급유 칠러를 개발했고 2022년에는 GWP(지구온난화지수)가 낮은 친환경 냉매를 적용한 제품을 출시했다. 최근에는 중동지역에 액침용 칠러를 맞춤 설계해 공급하는 등 특수환경 대응능력도 갖췄다.

 

이번 강연에서 이 팀장은 LG전자가 준비 중인 하이브리드 DLC(Direct Liquid Cooling) 시스템을 중심으로 발표를 이어갔다.

 

이명규 팀장은 “기존 DC는 랙당 10~15kW 수준의 발열을 전제로 설계했지만 AI GPU서버가 적용된 최신 랙은 130kW, 향후 600kW급까지 올라갈 것으로 예정됐다”라며 “이에 따라 칩을 직접냉각하는 DLC와 고효율 CDU(Cooling Distribution Unit), 공랭·수랭식 혼합형 칠러를 조합하는 하이브리드 솔루션이 필수”라고 설명했다.

 

DLC기술은 1상(싱글페이즈)에서 시작해 점차 2상(투페이즈)으로 확장되는 추세다. 싱글페이즈 기반 냉각은 이미 보편화됐지만 600kW급 고밀도 서버에서는 2페이즈 냉각수요가 급증할 것으로 예상된다. 칩과 밀착된 콜드플레이트를 통해 팬이 없는 완전 수랭식 설계가 늘어날 전망이다. LG전자는 현재 650kW급 CDU를 상용화했으며 내년 1.4~2.5MW급 대응이 가능한 장비를 출시할 계획이다.

 

또한 LG전자는 모듈형 패널유닛과 제어시스템까지 자체개발해 통합솔루션을 제공한다. 모듈형 설계로 현장조립을 간소화하고 공기흐름을 최적화해 열교환 효율을 높였다. 제어부문에서는 AI 기반 가상센서를 적용해 실제 센서고장 시에도 데이터를 추론해 안정적인 운전을 지원한다.

 

이명규 팀장은 “정전 후 45초 이내에 정상 회전수로 복귀하는 패스트 리커버리 기능을 구현해 DC의 가용성을 높였다”고 설명했다.

 

특히 이 팀장은 리퀴드쿨링 도입이 확대되면서 공랭식 DC쿨링시스템 한계를 보완할 필요성이 커지고 있다고 강조하면서 “리퀴드쿨링을 활용하면 기존 공랭식 시스템보다 높은 냉수 공급온도 조건으로도 DC를 운영할 수 있다”라며 “이로 인해 공랭식 프리쿨링 칠러를 통한 에너지효율 개선 니즈가 크게 증가하고 있다”고 말했다.

 

국내에는 그동안 관련 제품이 없어 전량 외산장비에 의존해 왔지만 LG전자가 이번에 국내 최초로 공랭식 프리쿨링 칠러를 개발하면서 상황이 달라지고 있다. 이 칠러는 메커니컬 쿨링영역에서 프리쿨링 코일과 콘덴서를 동시에 활용해 열교환 효율을 극대화한 것이 특징이다. 이를 통해 완전 프리쿨링(Full Free Cooling) 운전이 가능해졌으며 외기온도가 상대적으로 높은 조건에서도 냉각을 유지할 수 있다. 사용 냉매는 R513A로 GWP는 573 수준이며 적용 압축기는 스크류칠러 또는 마그네틱 원심식 칠러를 사용할 수 있다.

 

이명규 팀장은 “국내 DC가 에너지효율과 냉각안정성을 동시에 추구할 수 있는 기반을 마련했다”고 의미를 부여하며 “현재 이피코리아를 통해 무급유 칠러와 DLC 솔루션을 국내 공급하고 있다”고 밝혔다.

 

LG전자의 강점 중 하나는 자체 압축기 생산이다. 대부분의 칠러 메이커가 외부 압축기를 소싱하는 것과 달리 LG전자는 직접 설계·생산을 통해 비용과 유지보수 대응력을 확보했다. 마그네틱 베어링기술을 적용해 오일계통을 제거하고 마찰손실을 줄여 효율을 높였으며 단순화된 구조로 유지관리 비용까지 절감했다.

 

이명규 팀장은 “DC용 칠러는 단순한 냉방장치가 아니라 가동률과 에너지효율을 동시에 확보해야 하며 우리는 부품단위까지 고객 맞춤설계가 가능하다”라며 “또한 AI서버가 요구하는 고온수 공급트렌드도 주목해야 하는데 서버내열성이 향상되면서 공급수 온도를 높여도 문제없어지고 있으며 이는 자연냉각(프리쿨링) 비중을 높여 에너지소비를 줄이는 방향으로 이어진다”고 설명했다.

 

이명규 LG전자 팀장은 평택에 설치된 AI DC HVAC 솔루션 랩도 소개했다. 이곳은 1.5MW급 IT 부하를 테스트할 수 있으며 80%는 DLC 기반, 20%는 룸쿨링 기반으로 구성돼 있다. 20개 랙 중 랙당 75kW까지 실증 가능하며 650kW급 CDU와 프리쿨링 공랭식 칠러가 적용돼 실제 AI서버 운영환경을 시뮬레이션한다.

 

이명규 팀장은 “AI DC는 효율과 안정성이라는 두 가지 숙제를 동시에 풀어야 한다”라며 “LG전자는 칠러·DLC·제어기술을 통합한 솔루션으로 글로벌시장에서도 경쟁력을 확대하겠다”고 밝혔다.

 

HS효성인포, AI DC 인프라 ‘효율·확장성·탄소중립’ 모두 잡는다

 

강준범 HS효성인포메이션시스템 PM은 ‘AI DC로의 발전: 에너지 효율과 성능을 모두 잡는 최신 인프라 전략’을 주제로 발표하며 “AI 기반 산업확산 속에서 DC는 단순한 IT설비가 아니라 국가적 전략인프라로 부상하고 있다”라며 “효율, 확장성, 탄소중립을 동시에 달성할 수 있는 인프라 전략이 요구된다”고 강조했다.

 

강 PM은 AI DC 등장 배경과 트렌드를 설명했다. 기존 DC가 웹·DB 등 범용 컴퓨팅을 위해 설계돼 랙당 515kW 수준의 전력으로 운용된 것과 달리 AI DC는 GPU 기반 고성능 연산을 수행하며 랙당 40~120kW, 많게는 200kW 이상을 소모한다.

 

강준범 PM은 “고전력은 곧 고발열로 이어지며 기존 공랭식만으로는 냉각한계가 있다”라며 “PUE(Power Usage Effectiveness) 지표도 기존 1.5~1.8 수준에서 AI DC는 1.1~1.5, 궁극적으로 1.0에 근접하도록 요구받는다”고 말했다.

 

AI DC의 4대 핵심 요소로는 △GPU·HPC 기반의 고성능 컴퓨팅 △대규모 데이터저장·처리 △AI Ops 기반 리소스 효율화 △전력·탄소 최적화 등을 꼽았다. 이 요소들은 서로 유기적으로 연결돼야 하며 단순 하드웨어 도입을 넘어 통합적 플랫폼 전략이 필요하다는 것이다.

 

HS효성인포메이션시스템은 이를 위해 AI 플랫폼 청사진을 제시했다. 컴퓨팅 파브릭에는 글로벌 GPU서버시장 1위 슈퍼마이크로의 서버를 도입하고 스토리지 파브릭에는 HCSF를 적용했다. HCSF는 고성능 분산병렬 파일시스템 어플라이언스로 AI 연산에서 발생하는 대규모 데이터 입출력을 빠르고 안정적으로 처리할 수 있다.

 

강준범 PM은 “GPU가 초당 수십 권의 책을 읽는 속도를 내므로 스토리지는 GPU에 페이지를 적시에 공급해야 GPU의 빠른 속도가 의미를 갖는다”라며 “스토리지 성능이 곧 전체 인프라 효율로 이어진다”고 말했다.

 

AI Ops부문에서는 두 가지 대표 솔루션이 소개됐다. 첫째로 백엔드AI(Backend.AI)는 아시아태평양 지역 최초로 엔비디아의 DGX-Ready 소프트웨어로 인증받은 국내 기업이 개발한 플랫폼이다. DGX-Ready란 엔비디아의 AI 전용서버 DGX시스템과 연동 및 최적화가 보장돼 실제 DC에서 신뢰성 있는 성능과 관리기능을 제공할 수 있다는 의미다. 이 솔루션은 팀·부서별 자원 격리, GPU 유틸라이제이션 극대화, 스케줄링 최적화 기능을 제공한다.

 

둘째로 모래(MOREH)는 AMD로부터 시리즈 B 투자를 유치한 국내기업이며 MoAI라는 AI플랫폼을 개발했다. MoAI는 AMD GPU와 결합해 비용효율적인 구성이 가능하고 기존 엔비디아 GPU 환경에서 흔히 겪는 CUDA(쿠다) 라이브러리 종속성을 탈피할 수 있는 강점을 갖췄다. CUDA는 엔비디아 GPU용으로 개발된 병렬 연산 라이브러리로 이를 사용하면 특정 하드웨어에 종속되기 쉽지만 MoAI는 ROCm 기반 호환기술로 이를 해소하며 GPU 자원 활용을 극대화한다.

 

강 PM은 실제 구축사례도 공개했다. 국내 IT 대기업의 AI 플랫폼 구축에 슈퍼마이크로 GPU 서버와 HCSF 스토리지를 적용해 유연한 스케일아웃 구조를 구현했고 또 다른 대기업에는 AMD GPU와 MoAI 솔루션을 통해 비용효율적이면서도 단일벤더 종속성을 탈피한 AI인프라를 구축했다. 각 프로젝트는 HS효성인포메이션시스템이 원벤더 기술지원을 통해 수행했다.

 

또한 ESG경향과 ARM서버 도입전략도 언급했다. AWS, 구글, 마이크로소프트, 엔비디아 등 글로벌 빅테크가 ARM 서버를 도입하는 이유는 저전력·저발열과 비용 효율성에 있으며 HS효성인포메이션시스템도 자체 설계한 국내산 ARM 서버 ‘그린코어’를 통해 저전력 AI 인프라 옵션을 제공하고 있다고 소개했다.

 

강준범 PM은 “AI DC 구축은 단순한 장비 조달이 아니라 기술·인력·운영을 포괄하는 전략적 접근이 필요하다”라며 “HS효성인포메이션시스템은 고객의 AI인프라 파트너로서 효율과 성능, ESG 표를 동시에 달성할 수 있도록 지원하겠다”고 강조했다.

 

KDCC, “2028년까지 국내 DC시장 10조원 규모 성장전망”

 

김용희 KDCC 책임연구원은 ‘KOREA DATACENTER MARKET 2025~2028’을 주제로 발표하며 “국내 DC산업은 AI 혁신과 지방분산이라는 두 축을 중심으로 2028년까지 10조원 규모시장으로 성장할 것”이라고 전망했다.

 

김 책임연구원은 KDCC가 매년 발간하는 KDCC 리포트를 기반으로 이번 분석을 정리했다. 해당 보고서는 정보통신망법상 시설 바닥면적 500㎡ 이상을 정보통신방법에 따른 법적 DC로 정의해 자료를 수집한다. 조사범위는 2025년 4월 기준 준공된 센터, 2025년 6월 기준 시장전망, 2020년부터 2024년까지의 주요 트렌드 자료까지 포함해 분석했다.

 

발표에 따르면 국내 DC 수는 2000년 이후 지속증가해 2025년 4월 기준 165개소로 집계됐다. 2000년부터 2010년까지를 ‘기반 구축기’, 2010년부터 2021년 이후를 ‘성장기’로 구분하며 최근에는 AI DC가 추가되면서 성장세가 가속화되고 있다. 수도권 집중도는 여전히 높아 민간DC 75.3%가 서울, 인천, 경기지역에 위치한다. 세부적으로는 서울 35개소, 인천 4개소, 경기 31개소가 운영 중이다.

 

흥미로운 점은 향후 계획단계에서 비수도권 분산경향이 뚜렷하다는 것이다.

 

김 책임연구원은 “현재 추진단계에 있는 37개 DC는 수도권 비중이 70.3%로 높지만 계획단계에 있는 DC 39개 중 82.1%를 비수도권이 차지한다”라며 “경기 7곳으로 여전히 많은 DC가 수도권을 목표로 계획 중이지만 부산 7곳, 강원 5곳, 전남 4곳 등 지방권에 신규DC 건립계획이 집중되고 있다”고 설명했다.

 

실제로 2025년부터 2028년까지 구축 예정인 DC는 총 32개소로 파악되며 2027년에만 11개소가 준공될 예정이다. 강원도가 6건으로 가장 많은 지자체 주도 DC 계획을 보유했다.

 

서비스 형태 변화와 에너지수요 증가도 주요 포인트다. 상업용DC시장에서 코로케이션 서비스는 2028년에 95% 수준으로 성장할 전망이다. AI DC 확산에 따라 클라우드 서비스 역시 꾸준히 증가하며 상면비중도 수도권 중심으로 높은 비율을 차지하고 있다. IT 전력공급량은 2028년까지 1464MW로 예상되며 최근 3년간 36.6% 증가세를 보였다.

 

김 책임연구원은 “AI서버의 고발열 특성으로 인해 전력수요가 급격히 늘어나고 있으며 이에 따른 전력인프라 확충과 정책적 지원이 병행돼야 한다”고 말했다.

 

매출 전망 또한 주목할 만하다. KDCC 분석에 따르면 2028년까지 국내 DC시장은 약 10조원 규모로 성장하며 연평균성장률(CAGR) 13%를 기록할 것으로 보인다. AI서비스와 인프라 수요 증가가 상업용과 비상업용 DC 모두를 견인할 것이라는 전망이다.

 

인력 수요분석도 발표에 포함됐다. KDCC는 2024년 한 해 동안 공개된 채용공고를 크롤링해 분석한 결과 시설관리와 건설분야가 48건으로 가장 높았다.

 

김 책임연구원은 “AI DC 특성상 물리적 유지보수와 인프라관리 인력수요가 크게 증가하고 있다”라며 “전문분야별 특화교육이 필요하다”고 말했다.

 

이어 DC를 둘러싼 사회적 인식과 갈등이슈도 언급하면서 “지원에 대한 관심이 규제보다 높지만 주민수용성에서는 부정여론이 67%로 우세하다”라며 “전력인프라, 입지갈등, 환경영향 등 복합적인 요인이 작용하고 있으므로 교육과 정보제공을 통한 불안해소와 이해관계자 간 소통이 절실하다”고 강조했다.

 

김 책임연구원은 “AI 혁신과 지방분산이라는 흐름 속에서 DC는 단순한 인프라에서 지능형 서비스로 전환하며 수도권 집중에서 전국확산으로 나아가는 대전환기를 맞이하고 있다”라며 “산업계와 정책 당국이 협력해 더 나은 성장전략을 마련해주길 바란다”고 발표를 마무리했다.

 

에이알시스템, “GPU 기반 AI DC, 설계부터 달라야”

 

한상모 에이알시스템 대표는 AI DC 쿨링인프라 구축을 위한 과제와 리퀴드쿨링 설계사례를 주제로 발표하며 고발열 GPU서버 시대에 기존 공랭식 DC가 갖는 한계와 새로운 냉각전략을 구체적으로 설명했다.

 

한상모 대표는 먼저 DC 냉각 트렌드를 짚었다. 기존 DC는 크라(CRAH), 크랙(CRAC), 인로(In-row)시스템, 리어도어 히트익스체인저(RDHx) 등 공랭식 기반으로 서버를 냉각했지만 서버 전체면적을 커버해야 해 전력사용효율(PUE: Power Usage Effectiveness)가 1.5 이상으로 비효율적이었다.

 

그러나 AI GPU서버는 랙당 발열량이 기존 10~15kW에서 100kW 이상으로 급증해 공랭만으로는 한계가 뚜렷하다. 최근 고발열 서버 증가로 PUE 1.1 이하를 목표로 하는 리퀴드쿨링 필요성이 높아지고 있다.

 

리퀴드쿨링은 크게 DLC(Direct Liquid Cooling)와 Immersion Cooling(액침냉각) 두 가지로 구분된다. DLC는 콜드플레이트를 통해 칩에 직접 냉각수를 순환시키며 액침냉각은 서버 전체를 비전도성 냉매에 담가 냉각한다.

 

한상모 대표는 “50kW를 넘는 랙을 설계할 때는 리퀴드쿨링을 반드시 고려해야 한다”라며 “GB200을 탑재한 MBL72 서버의 랙당발열량은 132kW에 달하며 NVIDIA는 2027년 600kW급 랙도 계획 중인데 이는 기존 DLC나 액침냉각만으로도 감당하기 어려운 수준이므로 향후 DLC와 액침냉각을 혼합한 복합냉각 방식인 임베디드 쿨링이 필요할 것”이라고 내다봤다.

 

또한 한상모 대표는 임베디드 쿨링에 대해 “액침냉각과 DLC가 혼합된 방식으로서 액침냉각과 같이 서버를 쿨런트에 담근 상태에서 DLC와 같이 핫스팟에 냉각수를 공급하는 설계가 되지 않겠나 예상한다”고 밝혔다.

 

이어 실제 설계사례를 소개하면서 “에이알시스템이 설계한 AI DC에는 GB200 MBL72 8대를 한 세트로 구성하고 고밀도 서버 8대, 항온항습기 6대, 칠러 3대를 적용했다”라며 “상면 면적은 약 14.4×10m, 층고는 7m를 확보했다”고 밝혔다.

 

전력 부하 역시 막대하다. GB200을 탑재한 NVL72 랙 1대는 132kW를 소비하며 이 중 115kW가 DLC로 냉각되고 나머지 17kW는 여전히 공랭이 필요하다. 일반서버 8대와 GPU 랙 8대를 한 컨테인먼트에 구성하면 2MW 이상의 전력이 요구된다.

 

한 대표는 “건물 설계단계에서부터 전력용량을 2MW 이상으로 계획해야 하며 냉각설비 배치도 초기설계에 포함돼야 한다”고 강조했다.

 

설계 시 고려해야 할 또 다른 문제는 하중과 장비 배치다. 일부 국내건물은 조경과 외관 디자인에 집중해 옥상이나 2층 바닥 하중이 4톤 이하로 제한돼 있어 5톤 이상인 스크류 칠러나 440kg급 오일프리 칠러를 설치하기 어렵다. 이런 경우에는 별도건물이나 단층 쇼룸을 별도로 건축해야 한다.

 

기존 DC를 AI DC로 구축하기 위해서는 하중이 랙당 1.3톤 이상을 견디도록 설계해야 하므로 기존 2~3층에 위치한 서버룸은 구조상 한계가 크므로 1층 설계가 필수적이다.

 

한 대표는 액침냉각 장점도 상세히 설명했다. 비전도성 냉매를 활용해 서버를 직접 담그면 공기 접촉면이 필요 없으며 PUE가 1.03에 불과해 사실상 이론적 최적치에 근접한다. 냉매는 10년 이상 문제없이 사용 가능하다는 현장 데이터도 소개했다. 고밀도 서버로 교체한 후 기존 서버룸 설비없이도 빠르게 DC를 구축할 수 있다는 점을 장점으로 꼽았다.

 

에이알시스템은 액침냉각과 DLC를 모두 지원하는 국내 유일의 데모룸을 운영 중이며 SK텔레콤과의 PoC에서 PUE 1.0 수준을 달성한 경험을 공개했다.

 

한상모 대표는 “GPU·CPU 구성부터 임대계획까지 사전에 결정한 뒤 그에 맞춰 전력·냉각·건물 설계를 진행해야 한다”라며 “기존 DC를 단순 전환해 AI 전용으로 쓰는 것은 거의 불가능하므로 고발열 AI서버를 안정적으로 운영하기 위해선 초기부터 다른 시각과 전략으로 접근해야 한다”고 강조했다.

 

슈퍼마이크로, DLC2로 AI DC 패러다임 전환

 

김성민 슈퍼마이크로코리아 상무는 ‘AI DC 인프라에 대응하는 방안: DLC2, DCBBS’를 주제로 발표하며 GPU 기반 AI DC의 하드웨어 설계혁신과 냉각·운영기술 전반을 상세히 설명했다.

 

김 상무는 최근 서버 아키텍처가 랙 스케일(Rack Scale)로 전환되고 있다고 강조했다. 기존 1U, 2U 단위 서버개념에서 벗어나 한 랙 자체가 하나의 대형 서버처럼 설계되는 방식이다. 엔비디아가 발표한 GB200 NVL72는 랙당 GPU 72장이 하나의 서버로 동작하며 약 132kW의 전력을 소비한다. 2027년을 목표로 개발 중인 NVL570은 랙당 600kW에 달하고 100% DLC 적용을 전제로 한다. AMD와 인텔 역시 유사한 랙스케일 설계를 공식화하고 있으며 이는 AI서버시장의 새로운 표준이 될 전망이다.

 

실제로 GPU TDP(발열량)는 블랙웰 세대 대비 루빈 세대에서 2배 이상 상승하고 이후 세대마다 두 배씩 증가할 것으로 예측된다. 이러한 추세를 반영해 슈퍼마이크로는 DLC2라는 차세대 냉각 방식을 개발했다. DLC2는 GPU·CPU뿐 아니라 메모리, 파워서플라이, VRM 등 발열부품의 98%까지 직접냉각하며 기존 대비 전력·모터 스테이징을 40% 절감하고 TCO를 20% 낮출 수 있다. 소음도 50dB 수준으로 줄어 사무실 환경과 유사한 조용한 운용이 가능하다.

 

김 상무는 슈퍼마이크로가 DLC 외에도 다양한 냉각기술을 제공한다고 강조했다. 액침냉각은 서버를 전용 탱크에 담가 냉각하는 방식으로 PUE를 1.03 수준까지 낮출 수 있다. RDHx는 기존 설비를 유지하면서도 리퀴드쿨링을 도입할 수 있는 방식으로 신규와 리트로핏 환경에 모두 적용 가능하다.

 

냉각설비와 연계된 DCBBS(DC 빌딩블록솔루션)도 소개했다. 이는 서버, CDU, CDM, 사이드카, 냉각탑 등 하드웨어부터 소프트웨어, 현장 설치와 A/S까지 통합 제공하는 슈퍼마이크로의 전략이다.

 

김성민 상무는 “서버만 납품하는 것이 아니라 냉각탑까지 직접 제작하고 테스트한 뒤 랩 수준으로 통합해 납품한다는 점이 다른 OEM과 차별화된 포인트”라며 “실제 미국 본사에서는 1MW 규모의 냉각탑을 운영 중이며 10MW까지 증설해 AI 프로젝트를 지원하고 있다”고 말했다.

 

슈퍼마이크로는 이러한 기술력을 기반으로 글로벌 AI기업과 협력하고 있다. 일례로 미국 X.ai 프로젝트에서는 DLC 기반 서버 10만장 클러스터를 122일만에 구축해 고성능 AI 모델 ‘Grok’을 지원했다.

 

김 상무는 “서버, 쿨링, 소프트웨어를 조립 블록처럼 한 번에 제공하는 빌딩블록솔루션 덕분에 고객이 여러 업체와 조율할 필요 없이 단일창구에서 전체 시스템을 구성할 수 있다”고 강조했다.

 

또한 ‘슈퍼클라우드 컴포저’라는 통합 관리 소프트웨어도 소개했다. 서버운영, DLC·액침냉각 관리, 클러스터 및 OS 프로비저닝, 냉각탑 제어까지 단일포털에서 관리할 수 있다.

 

김성민 상무는 “앞으로 신규DC를 설계할 때는 고발열 GPU서버와 랙 스케일 설계, DLC2 같은 차세대 냉각을 필수 요소로 고려해야 한다”라며 “슈퍼마이크로는 하드웨어부터 소프트웨어, 서비스까지 통합한 솔루션으로 AI DC 혁신을 지원하겠다”고 발표를 마무리했다.

여인규 기자 igyeo@kharn.kr
저작권자 2015.10.01 ⓒ Kharn



  • youtube
  • facebook