'징크 울트라스케일+'에 관심 영역 인코딩, 지능형 디지털 사이니지, 자동 객체 추적, 음성 텍스트 인식 등 지원
7나노 버살(Versal) 제품군에 HDMI 2.1 구현한 시연도 선보여

자일링스가 전문가용 오디오·비디오(Pro AV) 및 방송 시장을 위한 기계학습(Machine Learning) 기능을 자사 디바이스에 추가했다./자일링스

자일링스는 전문가용 오디오·비디오(Pro AV) 및 방송 시장을 위한 기계학습(Machine Learning) 기능을 자사 디바이스에 추가했다고 11일 밝혔다. 이와 함께 7나노 버살(Versal) 디바이스에 구현한 업계 최초의 프로그래머블 고선명 멀티미디어 인터페이스(HDMI) 2.1 데모도 공개했다. 11일~14일(현지 시각) 네덜란드에서 개최되는 'ISE 2020' 전시회에서 이를 선보일 예정이다.

먼저 신규 추가된 기계학습 기능은 관심 영역 인코딩을 비롯, 지능형 디지털 사이니지, 자동 객체 추적, 윈도우 크로핑(Window Cropping), 음성인식 등이 포함됐다. 고집적 징크 울트라스케일+(Zynq UltraScale+™) 멀티프로세서 시스템온칩(MPSoC) 플랫폼을 비롯한 자일링스 디바이스 상에서 활용해 인공지능(AI) 엣지 프로세싱을 구현할 수 있다. 이를 통해 실시간 오디오 및 비디오 프로세싱, AV 연결 인터페이스, 코덱, IP 네트워킹, 중앙처리장치(CPU) 및 그래픽처리장치(GPU) 등을 확장 가능한 적응형 단일 칩 솔루션에 통합, 공간·전력·비용을 크게 줄일 수 있다.

관심 영역 인코딩은 얼굴 및 특징을 감지, 해당 영역만 화질을 높이고 배경에는 높은 압축률을 적용, 컴퓨팅 자원 소모량을 효율화하는 기능이다. 이를 통해 전반적인 비트 전송율을 줄이고, 라이브 스트리밍에 따른 비용을 크게 절감할 수 있다. 머신러닝 모델을 사용해 디지털 사이니지가 성별, 연령, 제스처를 감지, 타깃 상호작용 광고를 게시하는 것도 가능하다. 이를 통해 수익화할 수 있는 행동방식도 측정 가능하며 광고주의 투자 회수율을 높일 수 있다.

또 단일 4K 카메라에서 다중 HD 윈도우를 출력할 수 있어 제어실에서 전환 가능한 라이브 이벤트 컨텐츠를 제공할 때 특히 유용하다. 음성인식의 경우 자동으로 음성을 텍스트로 출력할 수 있으며, 컨퍼런스 및 공동작업의 회의 노트를 기록하고, 언어 번역을 자동으로 처리하는데 적합하다.

이와 함께 자일링스는 ISE 2020에서 최초의 적응형 컴퓨팅 가속화 플랫폼(ACAP)인 7nm Versal 디바이스에 업계 최초로 프로그래머블 HDMI 2.1을 구현한 데모를 선보인다. HDMI 2.1은 최대 데이터 전송속도 48Gbps로, 8K60 및 4K120을 포함한 다양한 고해상 비디오 및 고속 프레임 전송속도를 지원한다. 발광다이오드(LED) 월, 대형 디스플레이, 디지털 사이니지를 비롯해 라이브 스포츠와 같이 빠르게 움직이는 비디오 기반의 애플리케이션에서 보다 생생한 화면을 전달할 수 있다. 이를 위해 개발된 HDMI 2.1 지원 Versal ACAP은 최대 8K(7680 x 4320 픽셀) UHD(Ultra-High-Definition) 비디오를 전송 및 수신, 처리할 수 있다.

7nm Versal ACAP은 임베디드 소프트웨어와 다중 채널 AV 프로세싱 파이프라인 및 AI 추론이 긴밀하게 결합된 소프트웨어 기반 프로그래머블 인프라를 통해 확장 가능한 적응형 및 지능형 엔진을 제공한다.

   

라메쉬 아이어(Ramesh Iyer) 자일링스의 프로 AV 및 방송시장 부문 디렉터는 “머신러닝 기술은 프로 AV 및 방송 시장에서 새로운 활용 모델을 구축하기 위해 빠르게 적용되고 있다”고 말하고, “자일링스의 적응형 플랫폼에 이러한 머신러닝 기능이 추가되면서 궁극적으로 기업들은 혁신을 강화하고, 제품을 차별화하고, 시장출시 시간을 단축할 수 있다"고 전했다.

저작권자 © KIPOST(키포스트) 무단전재 및 재배포 금지