'AI 서밋 2019'에서 추론 및 학습용 NNP '너바나-I/T' 출시 알려
새로운 아키텍처 도입한 차세대 모비디우스는 내년 상반기 내놔

인텔은 미국 샌프란시스코에서 열린 'AI 서밋 2019(AI Summit 2019)'에서 클라우드에서 엣지까지 AI 시스템 개발 및 구현을 가속화하도록 설계된 새로운 제품을 공개했다고 13일 밝혔다.

이날 인텔이 선보인 신제품은 추론 및 트레이닝용 뉴럴 네트워크 프로세서(NNP) '인텔 너바나(Nervana)'와 컴퓨터 비전 및 추론 응용처를 위한 비전처리장치(VPU) '인텔 모비디우스 미리어드(Movidius Myriad)'다.

나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄은 “AI의 놀라운 발전을 지속하려면 인텔 너바나 NNP 및 모비디우스 미리어드 VPU와 같은 전용 하드웨어가 필요하다"며 "보다 앞선 시스템 수준의 AI를 사용하면 데이터를 정보로, 정보를 지식으로 변환하는데 큰 도움이 될 것”이라고 말했다.

 

나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄이 AI 서밋 2019에서 신제품을 설명하고 있다./인텔
나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄이 AI 서밋 2019에서 신제품을 설명하고 있다./인텔

해당 제품들은 인텔의 AI 솔루션 포트폴리오를 더욱 강화한다. 인텔은 대규모 클라우드에서 소규모 엣지 디바이스까지 모든 규모에서 AI 모델을 개발하고 구현할 수 있도록 AI 솔루션 포트폴리오를 구성했다. 이를 통해 올해만 35억 달러(4조957억원) 이상의 매출을 올릴 것으로 예상된다.

인텔은 지속적으로 VNNI(Vector Neural Network Instruction)를 포함한 인텔 딥 러닝 부스트와 같은 기능들로 플랫폼을 개선하고 있다. 이는 개선된 AI 추론 성능을 데이터 센터와 엣지에 제공한다.

이 기술은 향후 몇 년간 강력한 AI 기반으로 사용될 것이지만, 고객은 가장 향상된 딥 러닝 트레이닝을 위해 3.5개월마다 성능을 두 배 이상 높일 것을 요구한다. 이 같은 요구를 충족할 수 있는 건 자사 뿐이라고 인텔은 자신했다.

 

첫 전용 반도체(ASIC), '너바나' NNP

인텔 너바나 NNP-I./인텔
인텔 너바나 NNP-I./인텔

인텔 너바나 NNP는 트레이닝(NNP-T1000)과 추론(NNP-I1000)을 위한 제품으로, 클라우드·데이터센터 고객을 위한 인텔의 첫 AI ASIC 제품이다. 두 제품은 각각 바이두·페이스북의 요구에 맞게 개발됐다.

현재 고객에게 제공중으로, 시스템 수준에서 AI에 접근할 수 있게 개방형 구성 요소 및 딥 러닝 프레임 워크를 통합한 완전한 소프트웨어 스택을 제공한다.

인텔 너바나 NNP-T 제품군은 컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 소규모 클러스터에서 최대 포드 슈퍼컴퓨터에 이르기까지 선형에 가까운, 에너지 효율적인 확장성을 제공한다.

인텔 너바나 NNP-I는 전력과 예산을 효율적으로 사용하고 유연한 폼팩터를 통해 강력한 다중 모드 추론을 실제 구현하는데 이상적이다.

미샤 스메랸스키(Misha Smelyanskiy) 페이스북 AI 시스템 공동 설계 부문 디렉터는 “인텔과 협력해 인텔 NNP-I를 기반으로 더욱 빠르고 효율적인 추론 성능을 구현하고, NNP-I에 최첨단 딥 러닝 컴파일러 Glow를 위한 지원을 확장할 수 있어 매우 기대된다”고 말했다.

 

고효율 아키텍처 적용된 VPU '모비디우스'

2020년 상반기 출시될 차세대 인텔 모비디우스 VPU는 매우 특별하고 고효율적인 아키텍처 기술을 통합, 경쟁사 프로세서보다 최고 6배 우수한 전력 효율성과 이전 세대보다 10배 이상 높은 추론 성능을 제공한다.

인텔은 또한 인텔 오픈 비노(OpenVINO) 툴킷 디스트리뷰선과 함께 엣지용 인텔 데브클라우드(DevCloud)를 발표했다. 이를 통해 개발자들이 하드웨어를 구매하기 전, 광범위한 인텔 프로세서 기반에서 AI 솔루션을 테스트하고 프로토타입화할 수 있도록 지원한다.

저작권자 © KIPOST(키포스트) 무단전재 및 재배포 금지