HPE는 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 업계 최초의 100% 팬리스 직접 수냉 방식(Fanless Direct Liquid Cooling, Fanless DLC) 시스템 아키텍처를 29일 발표했다.
차세대 AI 가속기의 효율성이 갈수록 향상되고 있지만 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다.
시스템 아키텍처는 네가지 핵심 요소를 기반으로 설계됐다.
우선 GPU, CPU, 풀 서버 블레이드, 로컬 스토리지, 네트워크 패브릭, 랙/캐비닛, 팟/클러스터, 냉각분배장치(Coolant Distribution Unit, CDU)을 포함하는 8가지 요소 냉각 설계가 특징이다.
또 복잡한 컴퓨팅 및 냉각 시스템의 성공적인 배포를 지원하기 위한 철저한 테스트, 모니터링 소프트웨어, 현장 서비스를 포함한 고집적도 및 고성능 시스템 설계를 구현했다.
저비용 및 저전력 연결을 통합해 대규모 확장을 지원하는 통합 네트워크 패브릭 설계, 가속기 선택의 유연성을 제공하는 개방형 시스템 설계도 빼놓을 수 없다.
100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감해준다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여 바닥 면적을 절반으로 줄일 수 있다.

