엔비디아, 인포테인턴트부터 제동까지 한 칩에… 생태계 전방위 협력

대니 샤피로(Danny Shapiro) 엔비디아 오토모티브 담당 시니어 디렉터가 기자간담회에서 발표하고 있다./KIPOST
대니 샤피로(Danny Shapiro) 엔비디아 오토모티브 담당 시니어 디렉터가 기자간담회에서 발표하고 있다./KIPOST

“미래 자율주행차는 소프트웨어로 정의되는 인공지능(AI) 자동차가 될 것이다.”

대니 샤피로(Danny Shapiro) 엔비디아 오토모티브 담당 시니어 디렉터는 18일 기자간담회에서 이같이 말했다. 현재처럼 100개가 넘는 전자제어장치(ECU) 대신, 하나의 AI 시스템이 주행·인포테인먼트·통신 등을 모두 제어할 것이라는 얘기다.

엔비디아는 이를 위해 완성차 업체부터 부품 업체, 소프트웨어 업체 등 관련 업체들과 전방위적으로 협력하고 있다. 엔비디아가 이처럼 폭넓은 자율주행 동맹을 맺을 수 있는 건 엔드투엔드(End-to-End) 솔루션을 공급하는 유일한 업체이기 때문이다.

그는 “우리는 AI 알고리즘의 학습(Training)부터 이를 검증하는 시뮬레이션, 차량 구동까지 모든 하드웨어 및 소프트웨어 플랫폼을 갖추고 있다”며 “(자율주행 반도체)경쟁사들도 엔비디아의 솔루션으로 AI 기반 자율주행 알고리즘을 개발하고 있다”고 말했다.

 

자율주행은 수많은 데이터를 기반으로 AI를 학습시키고, AI가 만들어낸 알고리즘을 테스트하고, 이를 실제 자동차에 적용하는 3단계로 구분할 수 있다. 

엔비디아는 각 단계별 솔루션을 제공한다. △AI 학습에는 슈퍼컴퓨터 ‘DGX’와 여러 소프트웨어(SW) 개발 라이브러리를 한 데 묶은  ‘쿠다-X(CUDA-X)’, △가상환경에서 알고리즘을 검증하는 시뮬레이션으로는 ‘드라이브 컨스텔래이션(Drive Constellation)’과 SW ‘드라이브 심(Drive SIM)’을 △자동차 구동에는 드라이브 AGX 플랫폼과 ‘드라이브 AV·IX’ SW를 가지고 있다.

특히 AI를 학습할 때는 거의 대부분의 기업이 엔비디아의 DGX를 사용하거나 최소한 엔비디아의 그래픽처리장치(GPU)를 쓴다. 중앙처리장치(CPU)와 달리 단순 연산을 한 번에 많이 할 수 있는 병렬 컴퓨팅 구조라 대량의 데이터를 처리할 때 유용하기 때문이다.

국내 현대모비스도 엔비디아의 DGX를 가지고 자율주행 AI 알고리즘 개발을 위한 심층신경망(DNN)을 개발하다가 최근 출시된 신규 시스템 ‘DGX 슈퍼팟(SUPERPOD)’을 국내에서 처음으로 채택했다.

‘DGX SUPPERPOD’은 DGX-2H 서버 96개를 모아 만든 슈퍼컴퓨터로, 엔비디아 V100 텐서코어(Tensor core) GPU가 1536개 들어있다. 성능은 9.4페타플롭스(PFLOPS)로, 전 세계 500대 슈퍼컴퓨터 중 상위 22위다.

 

DGX SUPERPOD이 구축된 모습./엔비디아
DGX SUPERPOD이 구축된 모습./엔비디아

시뮬레이션 장비 ‘Drive Constellation’은 가상 환경에서 3차원(3D) 지도를 기반으로 진행하는 테스트 도구다. 자율주행차라도 실제 주행 실험을 하려면 반드시 사람이 제어할 수 있는 상태여야 하는데, 이 도구는 굳이 사람이 없어도 되고 테스트에 걸리는 시간도 짧다.

여러 시나리오를 만들어서 검증할 수 있으며 차량의 환경, 예를 들어 차량의 어디에 몇 개의 센서가 붙어있는지부터 주변 환경(날씨, 건물, 도로 상황) 등도 모두 설정 가능하다. 

대니 샤피로 디렉터는 “시뮬레이션이 실제 주행을 100% 대체할 수는 없지만, 소프트웨어 업데이트 사항을 빠르게 적용해보고 검토할 수 있다”며 “예를 들어서 AI 알고리즘이 날아다니는 새를 잡아내도록 설정돼있지 않다는 걸 시뮬레이션에서 파악하면 이를 다시 알고리즘에게 빠르게 학습시킬 수 있다”고 말했다.

자동차 주행에도 엔비디아 솔루션의 채택률이 가장 높다. 자율주행 반도체를 내놓은 곳이 아직 엔비디아와 테슬라뿐이다. 테슬라는 자체 차량에 넣는 용도로 개발해 시중에서 이를 판매하고 있는 곳은 엔비디아가 유일하다.

자율주행차에는 다양한 신경망 알고리즘이 적용된다. 아직 AI 알고리즘은 하나의 기능밖에 하지 못하기 때문이다. 예를 들어 사람이 전방을 주시할 때는 그저 쳐다만 봐도 차선과 보행자, 자전거, 차량, 날씨 등을 구분해 인식할 수 있다. 하지만 AI 알고리즘은 차선·동체·날씨·지도 등을 모두 별도로 개발, 적용해야한다.

샤피로 디렉터는 “이처럼 수많은 연산이 필요한 자율주행차에 엔비디아의 GPU가 유용하게 쓰일 수 있을 것”이라며 “차세대 오린(Orin)도 페가수스 자비에만큼이나 컴팩트(compact)하고 효율적인 솔루션으로 출시될 것”이라고 말했다.

저작권자 © KIPOST(키포스트) 무단전재 및 재배포 금지