딥러닝(DL) 기반 알고리즘이지만, ECU에 넣을 수 있을 정도로 작은 'SVNet'
자동차 업계 눈높이 맞춰 시연 방법도, 개발 방향도 바꿔... 개발 자동화 추진

자율주행 생태계에서 누구보다 주목받는 건 스타트업이다. 스타트업은 자율주행 생태계에 있는 주체 중 유일하게 혁신을 자유롭게 할 수 있고, 투자금을 쏟아부어 원하는 기술을 개발할 수 있다. 

미국에만 쓸만한 자율주행 스타트업이 있는 건 아니다. 이 연재물에서는 이들과 어깨를 견줄만한 국내 스타트업들을 소개한다. 

 

[스타트업으로 자율주행 만들기] ⑦비전 소프트웨어-스트라드비젼(StradVision)

자율주행의 가장 큰 문제점은 상용화를 할 정도로 기술이 무르익지 않았다는 것이다. 

기술 개발이 덜 됐다는 의미는 아니다. 양산 차량에 적용할만큼 하드웨어가 싼 것도, 소프트웨어가 가벼운 것도 아니다. 

그나마 양산 차종에 적용된 지 오래된 카메라 기반 비전 솔루션도 갑(甲) 같은 을(乙), 모빌아이(Mobileye)가 시장의 90%를 독차지하고 있다. 

최근 이 시장에서 반격이 시작됐다. 모빌아이에 밀렸던 시스템온칩(SoC) 업체들이 비전 솔루션을 장착했다. 그 뒤에는 국내 비전 소프트웨어 스타트업 스트라드비젼(StradVision)이 있다. 스트라드비젼은 지난 20일 316억원 규모의 시리즈 B 투자 라운딩을 끝마쳤다. 

 

모빌아이의 공세에 밀렸던 르네사스가 비전 시스템온칩(SoC)을 들고 올 수 있었던 건 국내 스타트업 스트라드비젼과의 협력 덕이다./스트라드비젼
모빌아이의 공세에 밀렸던 르네사스가 비전 시스템온칩(SoC)을 들고 올 수 있었던 건 국내 스타트업 스트라드비젼과의 협력 덕이다./스트라드비젼

 

ECU에 들어갈만큼 작은 딥러닝(DL) 소프트웨어

지난 2012년 인텔에 인수돼 국내 스타트업 업계에 한 획을 그은 업체가 있다. ‘올라웍스(Olaworks)’다. 인텔이 국내 스타트업을 직접 인수한 건 현재까지 올라웍스 뿐이다.

스트라드비젼(대표 김준환)의 역사는 이때부터다. 스트라드비젼의 최고경영자(CEO)인 김준환 대표는 올라웍스의 공동 창업자고, 제홍모 최고기술책임자(CTO) 또한 올라웍스 CTO를 지냈다. 

올라웍스는 모바일 기기에 적용되는 안면인식·증강현실 등을 개발했었다. 스마트폰에 넣는 게 목적이다보니 최대한 하드웨어 자원을 소모하지 않는, 작고 가벼운 알고리즘을 개발하는 게 핵심이었다. 

이와 아주 유사한 게 자동차에 들어가는 비전 소프트웨어였다. 지난 2014년 김 대표는 올라웍스 및 포항공대(POSTECH) 출신 인력을 모아 스트라드비젼을 세웠다. 모빌아이가 첫 SoC인 1세대 아이큐(EyeQ1)를 내놨던 때다. 

초기 회사는 일단 자동차·보행자·자전거·오토바이 등 전방의 객체를 검출·인식(object perception)할 수 있는 소프트웨어 개발에 집중했다. 단일 카메라로 객체의 위치를 파악할 수 있게 하는 게 핵심이었다. 

제홍모 CTO는 “초창기에는 딥러닝(DL) 없이 오픈소스 기반 레거시 알고리즘 개발로 접근했다가 스스로 성능 부족을 느껴서 DL로 다시 개발을 시작했다”며 “하지만 DL은 신경망 자체가 워낙 커 ECU에 들어갈만큼 간소화된 SW를 개발하기 어려웠다”고 말했다.

이에 스트라드비젼은 발상을 뒤집었다. 기존에는 국내 대기업을 포함한 대부분의 업체들이 하듯, 거대한 DL 신경망을 만들고 그 다음 불필요한 부분을 없애는 탑다운(Top-down) 개발 전략을 취했다. 

 

스트라드비젼의 ‘SVNet’은 서로 겹쳐져 있는 사물도 인식할 수 있다./스트라드비젼
스트라드비젼의 ‘SVNet’은 서로 겹쳐져 있는 사물도 인식할 수 있다./스트라드비젼

이와 반대로 겨우 학습이 될 정도로 작은 DL 신경망을 만들고 꼭 필요한 부분을 추가하는 바텀업(Bottom-up) 개발 전략을 택하면 소프트웨어 크기를 최소화할 수 있었다. 회사는 여기에 도로가 평평하지 않거나 날이 흐릴 때 필요한 보상(compensation) 알고리즘을 추가, 정밀도를 잡았다. 이렇게 개발된 게 ‘에스브이넷(SVNet)’이다.

사업 접근 방향도 모빌아이와 다르게 잡았다. 가뜩이나 완성차(OEM) 업체들은 ‘탈 모빌아이’를 원했고, 매일 바뀌는 요구사항을 반영하기도 어려웠다. 쟁쟁한 SoC 업체들도 있었다. 

자체 SoC 개발을 검토하던 스트라드비젼은 지난 2017년 비전 소프트웨어에 집중하기로 하면서 RTL(Register Transfer Level) 설계자산(IP) 개발을 일시 중단했다. 이때부터 르네사스·텍사스인스트루먼트(TI) 등 차량용 SoC 업체들과 만나 직접 칩에 알고리즘을 심고 시연을 해보였다.

제 CTO는 “현재 ECU 레벨에서 구현 가능한 비전 소프트웨어 공급 업체는 스트라드비젼 뿐”이라며 “툴과 라이브러리도 자체 개발, 하드웨어 유연성을 완벽히 확보했다”고 했다.

 

자동차 시장에 들어오고 싶으면, 그들과 눈높이를 맞춰야 한다

그렇다고 자동차 시장이 마냥 호락호락한 건 아니었다.

자동차 시장은 대기업조차 넌더리를 낼 정도로 진입 장벽이 높다. 길어야 1년간 혁신적인 제품을 개발하는 게 목표인 모바일 시장과 달리, 자동차 시장은 개발 주기도 적어도 5년인데다 제품의 안정성과 신뢰성이 혁신성보다 우선한다.

제홍모 CTO는 “개인적인 이야기지만, ‘몰라서’ 차량용 비전 소프트웨어 개발에 뛰어들었다”며 “일단 개발 주기가 굉장히 길고, 안전을 중시하기 때문에 신경써야할 게 한 두개가 아니었다”고 말했다.

업계에 스트라드비젼의 이름이 알려지기 시작한 건 차량용 SoC 업체들과 협력하면서다. 스트라드비젼은 차량용 SoC 업체들과 함께 전시회에 나갈때면 엔지니어링 보드와 카메라만으로 알고리즘을 시연해보였다. 

 

스트라드비젼이 자체 개발한 'SVNet' 툴./스트라드비젼

다른 업체들은 대부분 PC를 기반으로 알고리즘을 시연, 어떤 하드웨어 자원을 얼마나 쓰는지가 보이지 않는데 이 업체는 그것만으로도 ECU 레벨에서 구현 가능하다는 걸 입증한 셈이다. 이렇게 티어원(1차 협력사) 업체 테스트 실무자들 사이에서 회사의 이름이 오르내리기 시작했다.

제 CTO는 “자동차에 PC가 들어가는 것도 아니고, PC 기반 알고리즘 시연은 상대적으로 쉽다”며 “배터리가 없을 때는 차량 내 시가잭에 엔지니어링 보드만 연결해서 시연하기도 했다”고 설명했다.

지난 2017년부터 영입하기 시작했던 자동차 업계 출신 인력들은 ‘날개’가 됐다. 자동차 산업에 들어가기 위해선 생태계를 누구보다도 잘 알고, 칩과 소프트웨어 하나가 전체 시스템에 어떤 영향을 주는지도 파악해야했다. OEM과 티어원의 눈높이를 갖춰야했다는 얘기다.

그는 “전체 연구개발(R&D) 인력의 10% 정도지만, 이들이 우리에겐 ‘천군만마’ 같은 존재”라며 “오픈소스로 DL을 만들 수 있는 사람은 많지만, 소스부터 건드리기가 쉽지 않은데 이 또한 해낼 수 있는 최고의 인력들도 있다”고 말했다.

 

스트라드비젼에게는 스트라드비젼만의 영역이 있다

당장 이 회사의 경쟁사는 모빌아이지만, 멀리 보면 모빌아이만 있는 게 아니다. 레이더·라이다 등 다른 센서 업체들이 카메라를 추가해 센서퓨전(Sensor fusion) 솔루션을 내놓고 있다. ‘인텔’이라는 막강한 아군을 둔 모빌아이 또한 최근 이오나이트퍼셉션(Eonite Perception)을 인수, 라이다-카메라 센서 퓨전 시스템 개발에 나섰다.

싱글 카메라 기반 비전 솔루션 수요가 많은만큼 스트라드비젼은 일단 이 시장에 집중할 계획이다. 지난 10월부터 중국향으로 첫 제품 양산이 시작됐다. 차량용 SoC 업체들의 차기 모델에 올릴 비전 소프트웨어도 개발 중이다. 차선·표지판·신호등 등 추가 기능들을 덧붙이고 있다.

그렇다고 이 시장에 아예 대응하지 않을 계획은 아니다. 고객사의 요구로 센서 퓨전 시스템을 개발 중이다. 이를 직접 사업화할지의 여부는 정해지지 않았다. 알고리즘 통합은 SoC 업체들이 직접 하기 때문에 일단 할 수 있는 것에 최선을 다하겠다는 입장이다.

제홍모 스트라드비젼 CTO./스트라드비젼
제홍모 스트라드비젼 CTO./스트라드비젼

이를 위해 회사는 라벨링(Labeling), 학습(Training), 검증(Validation) 등 사람 손이 많이 타는 세 가지 개발 단계를 자동화할 계획이다. 

라벨링은 이미지를 디지털로 바꿨을 때(이진화) 객체를 각각 분별하기 위해 인접한 픽셀 값들끼리 그룹화해 번호를 매기는 작업을 뜻한다. 지금은 대부분 사람이 일일이 이미지에서 특정 객체를 분리해내는데, 이를 데이터만 있으면 객체가 뽑히도록 자동화하겠다는 것이다.

학습 자동화는 실시간 무선(OTA) 업데이트 기능을 활용, ‘SVNet’이 놓친 패턴을 자동으로 수집, 알고리즘을 고도화하는 데 쓰는 식으로 개발하고 있다.

제 CTO는 “셋 중 가장 중요하고 인사이트가 필요한 게 검증”이라며 “이와 함께 고정밀(HD) 지도와 비전 결과를 연동, 날씨 등의 문제로 인풋(Input) 데이터 자체가 좋지 않을 때도 높은 정확도를 유지할 수 있도록 하는 것도 개발 검토 중”이라고 말했다.

저작권자 © KIPOST(키포스트) 무단전재 및 재배포 금지