머신러닝(ML) 소프트웨어 개발 환경 보완하고 제품군 확대하고

NXP반도체가 오우존테크놀로지스, Arm과 협력해 머신러닝(ML) 개발 환경과 제품군을 확대했다./NXP반도체

NXP반도체가 머신러닝 개발 환경과 제품 포트폴리오를 강화했다. 

회사는 이를 위해 캐나다 오우존테크놀로지스(Au-Zone Technologies)와 독점적 전략적 파트너십을 체결했다고 20일 밝혔다. 이를 통해 회사는 자체 머신러닝(ML) 소프트웨어 개발 환경 'elQ'와 엣지 ML용 실리콘 최적화 추론 엔진 오퍼링을 확대했다.

Au-Zone의 ML 개발 도구 수트(ML Tool Suite) '딥뷰(DeepView)'는 직관적인 그래픽 사용자 인터페이스(GUI)와 워크플로(workflow)로 elQ를 강화해 어떠한 수준의 개발자라도 NXP 엣지 프로세싱 포트폴리오에서 데이터세트 및 모델을 불러(import)오고, NN 모델 및 ML 워크로드를 빠르게 훈련시키고 구축할 수 있도록 한다.

NXP의 elQ-DeepView ML Tool Suite는 NXP반도체의 제품에 공공 및 사유 신경망(NN) 모델들을 간결화(prune), 양자화(quantize), 인증(validate), 배포(deploy)한다. 표적형 그래프 수준의 프로파일링 기능을 통해 개발자들에게 고유한 런타임 통찰력을 제공, NN 모델 아키텍처, 시스템 매개변수, 런타임 성능을 최적화한다. 

사용자들은 NXP elQ에 Au-Zone의 DeepView 런타임 추론 엔진을 추가해 오픈소스 추론 기술을 보완할 수 있다. 이 런타임 추론 엔진은 각 시스템온칩(SoC) 아키텍처에 적합하도록 시스템 메모리 사용과 데이터 이동을 최적화하는 역할을 한다.

브래드 스콧(Brad Scott) Au-Zone 최고경영자(CEO)는 “우리는 DeepView를 개발해 개발자들에게 직관적인 툴과 추론 기술을 제공해왔기 때문에, 이번 파트너십은 임베디드 ML 기능 제공을 더욱 가속화할 수 있는 세계 최고의 실리콘, 런타임 추론 엔진 기술, 그리고 개발 환경의 합작품"이라며 "제조사(OEM)들이 추론을 엣지로 계속 전환시켜 나감에 따라 더 개선된 머신러닝 기술과 턴키 솔루션을 제공하는 촉매제 역할을 하게 될 것”이라고 말했다.

또 NXP는 Arm의 기술 파트너로 Arm 에토스(Ethos)-U 마이크로 신경망처리장치(microNPU) 아키텍처 발전을 위해 Arm과 협력해오고 있다. NXP반도체는 산업 및 IoT 엣지 부문에 에너지 효율적이고 비용 효과적인 ML 솔루션을 구현하기 위해 차세대 i.MX 애플리케이션 프로세서(AP)에 Arm의 Ethos-U65 microNPU를 통합할 계획이다.

NXP와 Arm의 기술 파트너십은 최대 1Top까지 지원하는 microNPU의 시스템 레벨 측면을 정의하는 데 중점을 뒀다. Ethos-U65는 Ethos-U55의 MCU급 전력 효율성을 유지하면서도 고성능 Cortex-A 기반 SoC에 적용 가능하다. 이미 NXP의 이기종 SoC의 i.XP 제품군에 탑재된 Cortex-M 코어와 호환 작동한다.

elQ에 통합된 elQ-DeepView ML Tool Suite 및 DeepView 런타임 추론 엔진은 내년 1분기부터 이용 가능하다. Ethos-U55와 U65가 탑재된 미래 디바이스뿐만 아니라 i.MX 8M Plus와 기타 NXP SoC를 위한 기존 혹은 신규 신경망 모델을 교육, 검증, 배포하는 엔드-투-엔드 소프트웨어 지원이 NXP의 elQ 머신 러닝 소프트웨어 개발 환경을 통해 제공될 예정이다. 

론 마티노(Ron Martino) NXP반도체 엣지 프로세싱 사업부 수석 부사장 겸 총괄은 “우리의 목표는 NXP 내의 기술 개발 외에도 이러한 Arm 및 Au-Zone과의 파트너십을 통해 NXP 프로세서의 효율성을 지속적으로 개선하고, 이와 동시에 고객들의 생산성을 향상하며, 고객들의 신제품 출시 시기(TTM)를 단축하는 것"이라며 "NXP의 비전은 고객들이 소유 비용을 낮추고, 중요한 데이터 보안을 높은 수준으로 끌어올리며, 인간 대 기계 상호작용의 형태를 개선해 안전성을 유지하도록 돕는 것”이라고 전했다.

저작권자 © KIPOST(키포스트) 무단전재 및 재배포 금지