HPE, 엔비디아와 공동 개최한 'AI@하이퍼스케일 2025' 행사 성료
한국 HPE는 엔비디아와 공동 개최한 ‘AI 앳 하이퍼스케일 2025(AI@Hyperscale 2025 with NVIDIA)’ 컨퍼런스를 17일 여의도 콘래드 서울에서 국내 파트너 및 고객사 400 명 이상이 참석한 가운데 성황리에 마무리했다고 밝혔다.
이번 행사는 최신 AI 기술 및 운영 전략에 대해 실무 중심의 기술 트렌드를 공유하는 자리였다. HPE와 엔비디아 등 업계 전문가들이 AI 인프라 구축, AI 서비스 개발, 추론 성능 최적화 등 현업 과제와 실제 적용 사례들을 발표하며 기업 경영진과 실무자들에게 도움이 되는 정보와 인사이트들을 공유했다.
이날 행사는 김영채 한국 HPE 대표이사의 인사말에 이어 조셉 양(Joseph Yang) HPE HPC, AI 및 논스톱 부문 아시아태평양/인도 총괄의 키노트로 시작됐다. 조셉 양 총괄은 키노트를 통해 생성형 AI, 에이전틱 AI, 물리 기반 AI의 가속이 열어가는 새로운 가능성의 시대와 이를 데이터, 워크플로우, 네트워크, 보안 등의 인프라 상에서 어떻게 실현할 수 있는지 전달했다. 또 HPE의 전문성과 엔비디아의 혁신적인 AI 기술을 통해 엔터프라이즈 AI 잠재력을 실현할 수 있도록 지원하겠다고 강조했다.
이어 엔비디아의 정구형 솔루션즈 아키텍트 팀장이 전세계 AI 도입 가속화를 지원하는 신규 AI 팩토리에 대한 주제로 키노트를 진행했다. 또 김희식 HPE 상무가 소버린 AI 및 AI 팩토리를 주제로 AI 경쟁력을 강화할 수 있는 HPE의 컴퓨팅, HPC 및 DLC(직접 수냉 방식)에 대해 소개하는 세션과 서강대학교 메타버스대학원 김태훈 교수가 ‘AI 엔진으로서 LLM: MCP/API 생태계와 HPC 실시간 추론 전략’을 주제로 발표한 세션이 이어졌다.
오후 세션에서는 ‘AI 시대를 위한 인프라와 운영 전략’ 및 ‘AI 애플리케이션의 효율성과 성능 최적화 전략’ 두개 트랙으로 나뉘어 지속가능한 데이터센터 설계, 대규모 AI 학습 최적화, AI 성능을 위한 고속 스토리지, 효율적인 AI 팩토리 운영 방안 등 AI 환경 최적화를 위한 인프라 운영의 최신 해법과 실제 AI 서비스 환경에서의 사례들이 공유됐다.