• 검색 결과가 없습니다.

글로벌 자율주행

N/A
N/A
Protected

Academic year: 2022

Share "글로벌 자율주행"

Copied!
69
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

글로벌 자율주행

테슬라 FSD V9과 그 파급력

박연주 류영호 김영건 김수진

yeonju.park@miraeasset.com young.ryu@miraeasset.com younggun.kim.a@miraeasset.com soojin.kim@miraeasset.com

차유미 이진호

yumi_cha@miraeasset.com jinho.lee.z@miraeasset.com

(2)

C O N T E N T S

I. Investment Summary 3

1. 테슬라 FSD V9과 그 파급력, Top Picks 테슬라/엔비디아/온세미컨덕터 3

II. 테슬라, 레벨 업의 시간 5

1. 딥러닝 기반의 비전 솔루션 5

2. 딥러닝과 자율주행 6

3. 테슬라의 자율주행 시스템 7

4. 레벨 업의 시간: 누적되는 데이터, 소프트웨어 2.0, 4D 라벨링과 도조 컴퓨터 9

5. FSD V9 상용화의 의미 11

III. Industry Dynamics 12

1. 25년까지 레벨 2의 기능 고도화 및 제한적 레벨 3 중심의 성장 예상 12

2. 데이터 및 AI 기술 확보는 지금부터 가속화될 전망 13

3. 비 테슬라 진영 현황: 모빌아이/웨이모/엔비디아 14

IV. 핵심은 데이터와 AI: 반도체/클라우드/센서 17

1. AI 반도체 17

2. 차량용 반도체 및 파운드리, 메모리 시장 영향 27

3. 클라우드/소프트웨어 33

4. 센서: 카메라/레이더/라이다 44

V. 투자 전략 53

1. Top Picks: 테슬라, 엔비디아, 온세미컨덕터 53

Top Picks 및 관심종목 54

테슬라 TESLA (TLSA US) 55

엔비디아 NVIDIA (NVDA US) 58

온세미컨덕터 ON Semiconductor (ON US) 60

Global X Autonomous & Electric ETF (DRIV US) 66

(3)

I. Investment Summary

1. 테슬라 FSD V9과 그 파급력, Top Picks 테슬라/엔비디아/온세미컨덕터

자율주행 시장의 발전은 기대보다 훨씬 더뎠고 레벨 4 이상이 상용화되려면 여전히 상당한 시간이 걸릴 전망이다. 그러나 테슬라의 FSD V9 상용화를 계기로 고도화된 레벨 2 자율주행이 줄 수 있 는 운전자 편의 및 상품성 차별화 효과가 부각되면서 자율주행 기술 개발에 가속도가 붙을 것으로 예상된다. 특히 자율주행이 딥러닝 기반으로 발전함에 따라 데이터를 확보하기 위한 산업 내 경쟁 은 이제 본격적으로 치열해질 전망이다. 관련해서 AI 반도체, 파운드리, 메모리 등 반도체 업계와 클라우드 등 소프트웨어, 센서 업체의 수혜가 예상된다. 글로벌 자율주행 Top Picks로 테슬라, 엔 비디아, 온세미컨덕터를 제시한다.

7~8월 테슬라의 FSD V9의 상용화와 구독 서비스, AI 데이 등이 예정되어 있다. V9은 테슬라가 그 동안 추진해 온 소프트웨어 2.0과 4D 라벨링이 도입되어 상용화되는 첫번째 버전이다. 기존 자율 주행은 고속도로 등 제한적 조건에서 주로 사용 가능했고 테슬라와 경쟁 업체간 기술 격차가 크지 않았으나, V9은 도심 자율주행이라고 불릴 정도로 기능이 대폭 개선된다. 여전히 운행 시 책임이 운전자에 있는 레벨 2 이지만 V9이 제공할 수 있는 운전자 편의 및 안전성 개선은 이제 본격적으 로 경쟁 업체와 차별화되기 시작할 것으로 예상된다. FSD V9의 상용화와 구독 서비스 개시, AI 데 이 등을 통해 테슬라의 자율주행 경쟁력과 향후 이익 창출력이 더 부각될 가능성이 높다.

자율주행 시장은 적어도 25년까지 레벨 2의 고도화와 제한적인 레벨 3(고속도로 등 특정 도로에서 사용) 위주로 성장할 것으로 예상되나, 기술 개발은 이제 본격적으로 빨라질 것으로 예상된다. 이는 1) 자율주행 기술이 딥러닝 기반으로 발전함에 따라 데이터 확보가 중요해졌고, 2) 고도화된 레벨 2 서비스가 고수익 비즈니스 모델로 이어질 수 있음이 확인되고 있으며, 3) 특히 중국 등 주요 시 장에서 자율주행 기능이 상품성 차별화 요인이 되고 있고, 4) 중장기적으로 자율주행 기술이 자동 차 산업 내 핵심 경쟁력이 될 가능성이 높기 때문이다.

자율주행의 핵심은 데이터와 AI다. 반도체, 소프트웨어, 센서 업체의 수혜가 기대된다.

자율주행은 인간 대신 차량이 인지/판단/행동을 해야 되기 때문에 인간의 뇌처럼 핵심적인 역할을 담당하는 프로세서의 역할은 굉장히 중요하다. 더 정확한 데이터 수집을 기반으로 사물들과 주위를 인식하기 위해서는 수많은 특질과 여러 층을 구성 해야한다. 이는 강력한 계산 능력이 필요하다는 의미이고 대량의 데이터를 동시다발적으로 연산해야 한다는 뜻이다. 현재 AI 반도체는 대부분 일 정 수준까지는 차량 내부에서 연산을 수행할 것으로 예상되고 원하는 모든 부분을 충족시키기 위 해서는 초고성능 하드웨어가 필요할 수 밖에 없다. 더 많은 양질의 데이터를 더 높은 성능의 컴퓨 터에 넣어 신경망 학습을 할수록, 알고리즘의 판단이 점점 더 영리해 지기 때문이다. 문제는 많은 데이터를 처리하기 위해서는 그만큼 많은 프로세서가 필요하고 이는 비용/전력 소모로 이어질 수 밖에 없다. 결국 테슬라외 다른 업체들도 중앙형 고사양 컴퓨터가 필요할 수 밖에 없을 것으로 예 상된다. 중장기적으로 차량내 시스템이 아닌 데이터센터 시스템의 경쟁으로 이어질 전망이다.

자율주행 관련 반도체 업종은 크게 세 가지 측면에서 성장을 전망한다. 1) MCU 등 핵심 차량용 반도 체의 수요 증가로 차량용 반도체 전문 업체들의 호황이 전망된다. 2) 자율주행차향 반도체에 대한 파운드리 수요 확대가 예상된다. 자동차 회사가 반도체를 직접 설계하고자 하는 수요뿐 아니라, 선 두권 팹리스의 플랫폼을 채용하는 경향이 커지기 때문이다. 3) 메모리 자원의 소모가 커질 것으로 기대된다. 자율주행 레벨이 올라가면서 센서로부터 수집되는 데이터가 급증하고, 연산의 속도가 빨 라지면서 필수적이기 때문이다.

(4)

파운드리향 투자를 지속하고 있으며, 테슬라향 FSD칩의 파운드리 경험을 축적한 삼성전자 (005930 KS)와, 자동차향 메모리에서의 점유율이 특히 높은 Micron(MU US)에 대한 관심을 가질 필요가 있다고 판단한다.

클라우드 업체들의 수혜도 기대된다. 자율주행차에서 클라우드 컴퓨팅은 필수적이다. 클라우드 컴퓨 팅이라는 인프라가 받쳐줘야 자율주행기술력들이 원활히 구현될 수 있기 때문이다. 클라우드 컴퓨 팅의 핵심 역할은 1) 대규모 데이터 관리와 2) 인공지능/머신러닝 등을 가능하게 하는 연산 처리 능력이다. 따라서 대표 클라우드 밴더사인 아마존(AMZN US)과 마이크로소프트(MSFT US)가 자 동차 기업들에 미치는 영향은 계속 커질 것으로 전망한다.

더 똑똑하고 더 안전한 자동차를 위해서 소프트웨어의 역할이 커지는 동시에 매우 복잡해지고 있 다. 이에 기존 전장용 SW, 인포테인먼트, 외내부 통신/서비스 SW 역할의 차량용 SW의 기능을 하나로 통합하는 플랫폼의 필요성이 커지고 있다. 현재 블랙베리의 QNX, 리눅스를 기반으로 한 OS, 완성차 업체들이 연합으로 만든 AUTOSAR 등이 대표 통합 플랫폼 역할을 하고 있다. 각 완 성차 업체들도 데이터를 확보하고 주도권을 놓치지 않기 위해 OS와 소프트웨어를 개발 중이다.

자율주행용 센서 시장은 연평균 +13% 수준 성장하며, 자동차에 탑재되는 센서 중 가장 높은 성장 이 가능할 것으로 판단한다. 자율주행은 인식분석/판단제어 단계로 작동하며, 사물과 도로 환 경 인식을 위한 센서 부품 탑재가 필수적이다. 전방위 인식을 위해서는 두 종류 이상의 센서를 사 용하여 각기 다른 센서가 가진 단점 보완이 이상적이다. 하지만 레이다 및 라이다의 높은 초기 비 용과 낮은 기술 발전으로 중단기 센싱 시장은 카메라 중심으로 성장할 것으로 판단한다.

글로벌 자율주행 산업 Top Picks로 테슬라, 엔비디아, 온세미컨덕터를 제시한다.

테슬라 Tesla (매수/목표가 850달러)는 딥러닝 기반 자율주행의 핵심인 고품질 데이터와 AI 역량에 서 경쟁 우위를 가지고 있다. 특히 21~22년 소프트웨어 2.0과 4D 라벨링의 적용, 슈퍼 컴퓨터의 도입 등으로 자율주행 경쟁력 한 단계 레벨 업 될 것으로 예상된다. 중장기적으로 자동차/빅테크 업체 대비 차별화 포인트는 확장성과 수직적 통합이다. 범용 센서와 저해상도 지도를 이용해 확장 이 용이하며 하드웨어/소프트웨어가 수직 계열화되어 있어 시스템 효율성이 높을 전망이다.

엔비디아 Nvidia (NVDA US) 는 현재 3개 대륙의 주요 기업들뿐만 아니라 전 세계 370여개 업체들 과 자율주행 부문에서 협력하며 통합 하드웨어 시장을 이끌고 있다. 아직까지 전체 매출에서 자율 주행이 차지하는 부분은 미미하지만 엔비디아는 단순한 하드웨어뿐만 아니라 소프트웨어, 개발 툴 킷, 시뮬레이션 시스템, 검증 플랫폼 등 자체적인 플랫폼을 바탕으로 자율 주행 생태계를 구축해 나가고 있다. 엔비디아는 하드웨어/소프트웨어 강점과 개방성이라는 장점으로 자율 주행시장에서 빠르게 입지를 넓혀가고 있다. 2022년부터 볼보/현대/NIO등 다양한 업체가 엔비디아의 Drive 플 랫폼을 적용하는 만큼 Automotive 매출 성장의 원년이 될 것으로 예상된다.

온세미컨덕터(ON US)는 테슬라 주도의 레벨 2+ 자율주행이 카메라 센서를 중심으로 이루어지며 글로벌 차량용 이미지센서 1위 업체로서의 온세미컨덕터의 수혜가 기대된다. 자율주행을 위한 AI 훈련에 기반은 데이터 확보이다. 동사는 테슬라를 포함한 현대차, 벤츠, 아우디에 이미지센서 및 카메라 모듈을 납품 중이다. 또한 Global Foundries로부터 22년 인수한 300mm 팹전환이 완료 되며, 팹라이트를 통한 차량용 이미지센서 부문 수익성 개선이 가능할 것으로 판단한다.

Global X Autonomous & Electric ETF (DRIV US)는 자율주행 기술 관련된 업체 위주로 구성되어 있 는 ETF이다. 산업 성장 초기에는 수혜를 보는 산업은 완성차 업체보다는 시스템을 납품하는 부품 업체나 기술을 제공하는 테크 업체들이 될 것으로 예상된다. 현재 시장에 상장된 자율주행 ETF들 은 대부분 전기차 업체들과 함께 구성되어 있으며 구성 종목이 자율주행 기술 관련된 업체보다 전 기차/완성차 위주로 구성되어 있다. 현재 자율주행 시장은 성장 초기인 만큼 ETF에 투자하면 개별 종목 리스크를 분산할 수 있다.

(5)

II. 테슬라, 레벨 업의 시간

1. 딥러닝 기반의 비전 솔루션

자율주행을 구현하려면 자율주행 시스템이 전방의 물체 등 주행 환경을 빠르고 정확하게 인지해야 하고 주행 경로 등에 대해 적절하게 판단해야 하며 효율적으로 차량을 제어해야 한다.

사람은 전방의 물체가 보행자인지, 차량인지 직관적으로 인지할 수 있고 그것이 어떤 상태이며 앞 으로 어떻게 될 것인지를 빠르고 정확하게 예측할 수 있다. 그리고 예상치 못했던 상황이 발생하더 라도 주행 경로를 바꾸는 등 창의적으로 대응을 할 수 있다.

그러나 컴퓨터는 이미지를 픽셀로 인식하기 때문에 전방의 물체가 다양한 모습으로 나타날 경우 (끝만 보이는 표지판, 자전거를 싣고 가는 자동차 등) 이를 정확히 인지하기가 어렵다. 이에 일반적 인 자율주행 시스템은 카메라뿐 아니라 레이다, 라이다 등 여러 개의 고성능 센서와 고해상도 지도 까지 활용해 인지의 정확도를 높이고자 한다.

문제는 이렇게 라이다 센서와 고해상도 지도를 사용하게 되면 시스템 원가가 높아질 뿐 아니라, 그 럼에도 불구하고 수 많은 코너 케이스(흔치 않은 사례)에 대한 대응이 어려웠다는 것이다. 일반적 인 산업에서는 99%가 높은 성공률이지만, 안전성이 매우 중요한 자동차 산업에서는 0.01%의 코 너 케이스도 치명적이다. 특히 레벨 3 이상에서는 사고 시 책임이 자율주행 시스템 제공 업체로 넘 어가기 때문에 상당 수의 자율주행 업체들은 레벨 4 이상의 자율주행 서비스 출시 계획을 계속 지 연시켜 왔고, 뚜렷한 성과를 내지 못한 채 많은 비용을 부담해야 하는 자율주행 업체들은 사업부를 매각하거나 통폐합되는 경우도 많았다.

테슬라 자율주행 시스템의 특징은 범용 센서를 사용하는 대신 딥러닝으로 시스템의 인공지능을 학 습시켜 자율주행을 구현한다는 점이다. 테슬라의 자율주행 시스템은 8대의 카메라와 1대의 레이다 로 구성되어 있으며 최근 미국에서는 레이다도 제거해 순수하게 비전 정보만으로 자율주행을 구현 한다. 대신 비전 데이터를 다루는 인공지능의 성능 개선에 많은 투자를 하고 있다.

그림 1. 이미지를 픽셀로 이해하는 컴퓨터 그림 2. 라이다와 고해상도 지도를 사용하지 않는 테슬라 비전 솔루션

자료: 테슬라, 미래에셋증권 리서치센터 자료: 테슬라, 미래에셋증권 리서치센터

(6)

2. 딥러닝과 자율주행

기존의 컴퓨터 프로그래밍은 프로그래머가 컴퓨터에 규칙을 주고 이를 기반으로 컴퓨터가 답을 도 출하는 방식이었다. 예를 들어 자동차의 여러 특징들을 컴퓨터에 제공하고 자동차 그림을 보여주 면 컴퓨터가 그것이 자동차라고 답을 내는 식이다.

반면 머신 러닝은 컴퓨터에 데이터를 주고 컴퓨터가 스스로 규칙을 찾아내도록 한다. 예를 들어 수 많은 자동차 그림을 보여주고 그것이 자동차라는 것을 알려주면(머신 러닝 중 하나인 지도 학습의 사례) 컴퓨터가 자동차의 특징을 스스로 찾아내는 것이다. 이 경우 새로운 자동차 그림을 보여주어 도 컴퓨터가 그것이 자동차라는 답을 낼 수 있다.

머신 러닝의 방법론 중 인간의 뇌에 있는 신경망에서 영감을 얻어 만든 인공신경망을 여러 층으로 구성해 학습시키는 것을 딥러닝이라고 한다. 인간의 뇌는 수 많은 신경세포(뉴런)으로 구성되어 있 는데, 각 뉴런은 다양한 데이터를 받아들이고 각각의 데이터에 적절한 가중치를 준 후 결과값이 임 계치를 넘으면 반응을 해서 다음 뉴런에 신호를 준다.

여기어 영감을 얻어 만든 인공 뉴런은 각각의 입력 변수들이 임의의 가중치와 결합하여 임계치를 넘으면 출력된다. 입력값에서 최종 답이 정확히 나올 수 있도록(손실 함수가 최소화되도록) 가중치 를 바꾸는 작업(규칙을 찾아내는 작업)이 학습이다. 인공신경망은 입력층과 은닉층, 출력층으로 구 성되는데 은닉층 수가 많아질수록 복잡한 함수를 표현할 수 있고 2개 이상의 은닉층을 이용해서 학습하는 것을 딥러닝이라고 부른다.

그림 3. 생물학적 신경세포 구성과 이를 모방한 인공신경망의 원리

자료: 딥러닝 알고리즘을 이용한 건설공사 공기예측의 적정성 분석(안현주, 2020), 미래에셋증권 리서치센터

그림 4. 머신 러닝과 전통적 프로그래밍의 차이 그림 5. 딥러닝 알고리즘으로 숫자 4를 인식하는 사례

자료: 미래에셋증권 리서치센터 자료: 도서출판 길벗, 미래에셋증권 리서치센터

(7)

3. 테슬라의 자율주행 시스템

수 년 전부터 자율주행 기술 개발에 딥러닝이 도입되면서 자율주행의 인지 및 판단 능력이 개선되 고 있다. 컴퓨터 비전의 인지 정확도를 가리는 이미지넷 컨테스트 결과를 보면 딥러닝이 도입된 2014년 이후 컴퓨터의 에러율이 사람보다 낮아지기 시작했음을 확인할 수 있다. 테슬라는 여러 자 율주행 업체 중에서도 딥러닝을 매우 높은 수준으로 활용할 수 있는 시스템을 구축하고 있다.

딥러닝의 성공에 있어 가장 중요한 요소는 데이터의 퀄리티와 양이다. 데이터의 퀄리티가 높아야 인공지능이 잘 ‘학습’할 수 있고 인지 및 판단의 정확도가 올라가기 때문이다. 특히 자율주행은 수 많은 코너 케이스에 대응할 수 있는지가 핵심이기 때문에, 많고 다양한 실 도로 주행 데이터를 확 보하느냐가 가장 중요하다. 그리고 이 대량의 데이터를 차량 내에서 빠르고 정확하게 처리할 수 있 는 소프트웨어 알고리즘, 이를 저전력/저비용으로 구현할 수 있는 차량용 AI 컴퓨터, 그리고 AI를 훈련시킬 수 있는 슈퍼 컴퓨터 등 대규모 학습 인프라 등이 필요하다. 나아가 시스템의 판단에 따 라 전체 자동차를 효율적으로 제어할 수 있고 지속적으로 업데이트되는 소프트웨어를 효율적으로 차량에 구현할 수 있는 중앙 집중형 아키텍처(통합 전자제어 장치 및 운영체제)도 필요하다.

테슬라는 딥러닝 기반 자율주행의 핵심이 데이터라고 보고 모든 테슬라 차량에 8대의 카메라와 자 율주행 컴퓨터를 탑재, 실 도로 주행 데이터를 수집하고 있다. 수집된 데이터는 테슬라 본사에 있 는 슈퍼 컴퓨터에서 인공지능을 훈련시키는데 사용된다. 특히 테슬라는 쉐도우 모드(그림자 모드) 가 있어 자율주행 기능이 사용되지 않을 때에도 사용한 것처럼 데이터를 수집할 수 있다.

이 때 모든 데이터를 수집하는 것은 너무 방대하고 소모적이기 때문에 부정확한 사례가 발생하면 관련 데이터를 집중적으로 요청하여 인공지능을 훈련시킨다. 예를 들어 테슬라 차량이 터널에서 차선 인식을 정확히 못할 경우 본사는 테슬라 모든 차량에 유사한 상황에 대한 데이터를 요청하고 그렇게 받은 데이터를 기반으로 인공지능을 집중 훈련시킨다. 그렇게 개선된 알고리즘은 Over the Air 업데이트를 통해 다시 차량으로 보내진다.

이런 식으로 테슬라는 실제 도로 주행 중에 나타나는 수 많은 코너 케이스에 대한 대응력을 키울 수 있으며 특히 테슬라의 차량 판매량이 늘어날수록 확보할 수 있는 데이터의 양은 누적적으로 증 가하면서 자율주행 기능은 점점 개선되게 된다.

그림 6. 부정확성이 감지될 경우 유사한 데이터를 학습해 알고리즘 강화 그림 7. 쉐도우 모드를 통해 많은 데이터를 취득 가능

자료: 테슬라, 미래에셋증권 리서치센터 자료: 테슬라, 미래에셋증권 리서치센터

(8)

테슬라가 이러한 시스템을 구축할 수 있는 배경은 다음과 같다.

첫째, 테슬라는 모든 차량에 8대의 카메라와 여기서 나오는 많은 데이터를 효율적으로 처리할 수 있는 소프트웨어, 이를 저전력/저비용으로 구현할 수 있는 컴퓨팅 플랫폼를 장착하고 있다. 테슬라 는 이를 위해 과거 모빌아이, 엔비디아의 컴퓨팅 플랫폼을 사용했으나 2019년부터는 자체 설계한 하드웨어 3.0을 사용하고 있다. 하드웨어 3.0은 2.0대비 연산 능력이 7배 개선된 반면 전력 소모 량은 낮아 저전력/저비용으로 데이터를 처리할 수 있다.

둘째, 테슬라는 본사에 인공지능을 훈련시킬 수 있는 강한 학습 인프라(고성능 슈퍼 컴퓨터, 업계 최고 수준의 AI 엔지니어 등)를 갖추고 있다. 최근 테슬라는 자사의 새로운 슈퍼 컴퓨터를 공개했 는데 연산 능력이 1.8엑사플롭스(1초에 100경번의 부동소수점 연산을 처리, 1000 페타플롭스)로 전세계에서 5번째 수준이라고 밝힌 바 있다. 본사의 슈퍼컴퓨터 연산 능력이 빨라질수록 더 많은 데이터로 더 빠르게 인공 지능을 훈련시킬 수 있다.

셋째, 테슬라 차량과 본사의 연결성이다. 테슬라는 차량과 본사 데이터 센터 사이에서 실시간으로 대량의 데이터를 주고 받을 수 있기 때문에 테슬라는 수 많은 실 도로 주행 데이터를 확보할 수 있 고 알고리즘은 지속적으로 개선시킬 수 있으며 이를 기반으로 차량의 성능이 계속 개선될 수 있다.

넷째, 효율적인 차량 제어가 가능한 중앙 집중형 아키텍처이다. 일반적인 자동차는 각 부품별로 하 드웨어와 소프트웨어가 분산되어 있는 반면 테슬라는 주요 ECU(Electric Control Unit, 전자제어 장치)와 운영 체제가 통합되어 있는 중앙 집중형 아키텍처로 설계되어 있어 지속적으로 업데이트 되는 소프트웨어를 차량에서 효율적으로 구현할 수 있다.

표 1. 테슬라의 차량용 AI 컴퓨팅 플랫폼 발전 추이

테슬라 하드웨어 2.0 하드웨어 3.0

출시연도 2016 2019

연산 능력(TOPS) 20 144

전력소모량(W) 57 72

주. TOPS(Tera Operations Per Second, 초당 테라옵스)는 자료: 산업자료, 미래에셋증권 리서치센터

그림 8. 테슬라가 21년 6월 공개한 AI 학습용 슈퍼컴퓨터 사양 그림 9. 중앙 집중형 아키텍처(통합 ECU 및 OS)

자료: 테슬라, 미래에셋증권 리서치센터 자료: 한국무역협회, 미래에셋증권 리서치센터

(9)

4. 레벨 업의 시간: 누적되는 데이터, 소프트웨어 2.0, 4D 라벨링과 도조 컴퓨터

특히 21~22년은 테슬라의 자율주행 성능 개선에 있어 중요한 시기가 될 전망이다. 테슬라의 자율 주행 성능을 개선시킬 요소는 누적되는 고품질 데이터와 소프트웨어 2.0의 도입, 4D 라벨링과 도 조 컴퓨터의 도입 등이다.

첫째는 데이터이다. AI 분야에서 최고의 권위자 중 하나인 앤드류 응 교수는 딥러닝의 성공을 좌우 하는 것은 80%가 데이터이고 20%가 모델이라고 언급한 바 있다. 테슬라도 이를 주지하고 있으며 새로운 모델을 개발하는 것보다 얼마나 좋은 데이터를 잘 사용하는지가 훨씬 중요하다고 밝히고 있다. 테슬라 차량 판매량이 늘어나면서 실 도로 주행 데이터가 누적적으로 증가하는 것은 자율주 행 기능 개선에 있어 가장 중요한 요소이다.

두번째는 소프트웨어 2.0의 도입이다. 기존의 프로그래밍(소프트웨어 1.0)은 개발자가 직접 컴퓨터 언어로 코딩을 하였다. 이는 기본적으로 인력과 시간, 비용이 많이 소요되는 작업이며 사람이 하는 만큼 오류의 가능성도 크다. 더 큰 문제는 실제 운전 상황과 같이 수 많은 코너 케이스가 존재하는 경우 이를 모두 개발자가 코딩하기가 사실상 불가능하다는 점이다.

이에 테슬라는 현 AI 책임자인 안드레아 카파시가 들어온 이후 소프트웨어 1.0 기반의 소프트웨어 스택의 일부를 소프트웨어 2.0으로 다시 쓰고 있다. 소프트웨어 2.0이란 개발자가 직접적으로 코 딩을 하는 것이 아니라 인공 신경망에 대략적인 아키텍처와 데이터를 제공하고 인공신경망이 최적 의 코딩을 찾아내는 방법이다. 즉 인공지능이 스스로 프로그래밍을 하는 것이다. 이 경우 매우 복 잡하고 다양한 상황에 대해 코딩이 가능하다.

안드레아 카파시는 20년 Scaled Machine Learning Conference에서 소프트웨어 2.0을 도입할 경우 자율주행 시스템의 인지 능력이 어떻게 개선되는지를 상세히 설명한 바 있다. 소프트웨어 1.0 기반의 시스템은 8대의 카메라로부터 받은 이미지를 하나의 그림으로 짜집기해서 인지하는데 이를 Occupancy Tracking 이라고 한다. 문제는 8개의 카메라가 각각 임의의 방향을 향하고 있는 데다 도로선 등이 일치하지 않아 정확하게 주변 상황을 파악하기가 어렵다는 점이다. 그러나 이를 소프트웨어 2.0 기반으로 카메라에서 들어오는 정보들을 BEV Net 등 인공 신경망을 통해 처리하 게 되면 훨씬 더 정확하게 Top Down View를 확보할 수 있다.

그림 10. 소프트웨어 1.0 기반의 인지 시스템 오류 그림 11. 소프트웨어 2.0 기반의 인지 시스템

자료: 테슬라, 미래에셋증권 리서치센터 자료: 테슬라, 미래에셋증권 리서치센터

(10)

셋째는 4D 라벨링이다. 테슬라는 20년 2분기 실적 컨퍼런스에서 전체 자율주행 아키텍처를 다시 쓰기(Rewrite) 시작했으며 이는 단계적 개선이 아닌, 퀀텀 점프가 될 것이라고 언급한 바 있다.

테슬라의 기존 자율주행 시스템은 2D 이미지를 라벨링했다. 문제는 여러 사람들이 여러 시간대에 라벨링을 하기 때문에 일관성이 떨어지고 특히 시각 이미지가 부족한 경우 정확하게 라벨링을 하 기 어려웠다는 것이다. 또한 시간 개념과 연계하는 것도 쉽지 않아 기존 자율주행 시스템은 정치된 물체를 인지하는데 어려움을 겪는 등 한계가 있었다.

이에 테슬라는 4D 라벨링(3D+시간, 즉 비디오)을 시작하였다. 그렇게 되면 데이터의 연속성이 있 어 인지의 정확도가 높아지고 시간에 따라 이미지가 어떻게 바뀌는지를 보면서 그 맥락을 이해하 고 예측을 할 수 있게 된다.

엘론 머스크가 좋은 설명이라고 언급했던 유튜버 Dr. Know-it-all Knows it all는 강아지가 앞으로 뛰어나가는 장면을 통해 4D 라벨링이 중요한 이유를 설명하였다. 기존의 2D 라벨링은 각 프레임 별로 라벨링을 하기 때문에 어떤 장면에서는 강아지라고 정확히 인지하지만 강아지가 잘 보이지 않는 경우 인지를 못할 수 있다. 그러나 4D로 라벨링을 하게 되면 강아지가 있다, 그 강아지가 앞 으로 조금 움직였다, 그 강아지가 좀더 움직였다는 식으로 인지하기 때문에 강아지라는 데이터의 연속성이 있어 시각 이미지가 부족한 상황에서도 인지의 정확도가 높아진다. 무엇보다 강아지가 움직이는 방향과 속도를 파악하기 때문에 사람처럼 그 맥락을 파악하고 예측할 수 있다.

테슬라는 4D 라벨링을 통해 자율주행 시스템이 점점 ‘사람처럼’ 주변 상황을 정확히 인지하고 예 측할 수 있을 것으로 예상하고 있다. 리라이트가 적용된 자율주행 시스템의 출시는 그 이후 상당 기간 지연되어 7월 중 상용화가 예정되어 있다. 새로운 기술의 적용이기 때문에 실제 상용화에 더 시간이 걸릴 가능성도 있겠으나 근본적인 기술 발전은 진행 중이라고 판단된다.

마지막 레벨 업의 요소는 슈퍼 컴퓨터이다. 자율주행 시스템에서 들어오는 데이터가 기하 급수적 으로 늘어남에 따라 이를 잘 활용해서 인공지능을 개선시키는 슈퍼 컴퓨터가 중요해진다. 이에 최 근 테슬라는 1.8엑사플롭의 연산능력을 갖춘 새로운 슈퍼 컴퓨터를 사용하고 있다고 공개하였고 21년 말 그보다 더 성능이 개선된 슈퍼 컴퓨터인 도조를 출시할 예정이다. 이와 같은 하드웨어 성 능 개선을 바탕으로 테슬라의 자율주행 시스템은 고화질 영상 데이터를 빠르게 처리하고 훈련시킴 으로써 자율주행 성능을 개선시킬 것으로 예상된다.

그림 12. 4D(비디오) 라벨링을 통해 예측이 가능해짐 그림 13. 테슬라가 21년 6월 공개한 슈퍼컴퓨터 사양: 다음은 도조

자료: Dr. Know-it-all Knows it all. 미래에셋증권 리서치센터 자료: 테슬라. 미래에셋증권 리서치센터

(11)

5. FSD V9 상용화의 의미

테슬라의 자율 주행 성과를 확인할 수 있는 이벤트는 FSD V9의 상용화와 AI 데이가 될 전망이다.

도심 자율주행이라고도 불리는 V9은 소프트웨어 2.0과 4D 라벨링이 도입된 시스템이 처음으로 상용화되는 것으로 현재 일부 사용자들을 대상으로 베타 테스트 중이다. 상용화 일정은 당초 계획 보다 상당 기간 지연되고 있으나, 베타 테스트 영상을 보면 비보호 좌회전, 회전 교차로 통과 등 기능이 대폭 개선된 점을 확인할 수 있다. 테슬라는 V9 상용화 시점에 맞춰 구독 서비스를 시작할 예정이며 7월말~8월초 AI 데이를 개최할 예정이다.

이 같은 일련의 이벤트들은 첫째, 테슬라의 자율주행 기능이 다른 업체들 대비 크게 차별화될 수 있다는 점을 보여줄 수 있고 둘째, 구독 모델과 연결될 경우 비즈니스 구조가 바뀔 수 있음을 시사 하고 셋째, 레벨 3 이상으로의 진전 가능성을 보여줄 수 있을 것으로 예상된다.

V9 이전의 테슬라 자율주행 기능들은 주로 고속도로나 고속화도로에서 사용 가능한 차간 거리 조 정, 자동 차선 변경, 자동 주차, 스마트 서먼(차량 호출) 등의 기능을 제공했다. 이는 정밀도의 차이 는 있으나 벤츠 등 프리미엄 자동차 업체들도 상당 부분 구현하는 기능들이다. 그러나 V9부터는 같은 레벨 2+ 라도 테슬라가 구현할 수 있는 자율주행 기능이 크게 차별화될 전망이다.

테슬라는 V9의 출시에 맞춰 구독 서비스를 준비하고 있다. 구독 서비스가 출시되면 기존보다 많은 소비자들이 상대적으로 적은 월 비용으로 구독 서비스를 활용할 수 있기 때문에 자율주행 옵션 채 택률이 늘어날 것으로 예상되고, 테슬라의 비즈니스 모델도 차량 판매에서 소프트웨어 판매로 확 장되면서 실적 및 밸류에이션의 확장이 가능할 전망이다.

보다 중요한 것은 테슬라의 자율주행 기술이 레벨 3 이상으로 발전할 수 있는 잠재력을 보여줄 것 이라는 점이다. 기존의 자율주행 시스템은 라이다, 고해상도 지도 등을 활용하고서도 수 많은 코너 케이스에 대한 대응이 쉽지 않아 레벨 3로의 전환이 매우 더디게 이루어지고 있다. 그러나 테슬라 가 기존 대비 대폭 개선된 자율주행 성능을 보여준다면 레벨 3 이상으로 갈 수 있는 가능성이 가 장 높은 업체로 평가될 수 있다. 중장기적으로 레벨 4 이상의 자율주행이 가능해지면 테슬라는 로 보 택시와 같은 무인 자율주행 서비스를 통해 대규모 수익을 창출할 수 있고 확보된 고객 데이터 를 기반으로 보험 등 다양한 사업을 확장할 수 있으며 애플처럼 자동차 플랫폼을 기반으로 수수료 수익 등 다양한 서비스 매출을 시현할 수 있기 때문에 이익 창출력이 대폭 확대될 수 있다.

그림 14. 미국에서 베타 테스트 중인 테슬라 FSD V9 그림 15. 테슬라 FSD 가격 추이

자료: Inside EV, 미래에셋증권 리서치센터 자료: 언론 자료, 미래에셋증권, 리서치센터

3,000 5,000 7,000 9,000 11,000

19년 5월 19년 11월 20년 6월 20년 10월

(US$)

(12)

III. Industry Dynamics

1. 25년까지 레벨 2의 기능 고도화 및 제한적 레벨 3 중심의 성장 예상

자율주행 시장의 성장은 기대보다 훨씬 더뎠고 현재 시점에서도 사고 시 책임이 자율주행 시스템 으로 넘어 오는 레벨 4을 구현하는 데에는 시간이 상당히 걸릴 것으로 예상된다. 수 많은 코너 케 이스에 대한 대응이 어렵고 각국의 규제도 아직 확립되지 않았기 때문이다. 그러나 테슬라의 주도 로 인해 레벨 2의 기능 고도화 및 제한적 레벨 3 기술 개발은 가속화될 것으로 예상된다.

매킨지에 따르면 레벨 2+와 제한적인 레벨 3 시장 규모는 2020년 1% 수준에서 25년 16% 수준 으로 성장할 전망이다. 레벨 2+의 경우 2020년 전체 신차 판매 중 1% 수준인 시장이 2025년에 는 12%로 확대될 것으로 전망하고 레벨 3 시장은 고속도로 및 정체 시에만 적용 가능한 제한적인 용도로 2020년 0%에서 25년 4% 수준으로 확대될 것으로 전망하고 있다.

구체적인 모델 출시 계획을 보면 벤츠가 21년 하반기 신형 S 클래스에 레벨 3 자율주행 서비스를 출시할 계획이다. 고속도로 등 제한적인 조건에서 시속 60km 이하로 Eye off와 Hands Off가 가 능하다. 벤츠는 기존 레벨 2 시스템에 5개의 카메라와 5개의 레이더, 12개의 초음파 센서를 사용 했으나 레벨 3부터는 라이다 1개와 카메라 1개를 더하고 고해상도 지도도 이용할 계획이다.

혼다는 21년 레벨 3 기능이 출시된 레전드 모델을 출시하였다. 정체 구간 및 고속도로에서 최고 50km 이하로 주행이 가능하며 이를 위해 카메라 3개, 라이다 5개, 레이다 12개, 고해상도 지도와 GPS를 이용한다. 차량 가격은 1,100만엔으로 상당히 높으며 연 판매 계획은 100대 수준이다.

볼보는 22년 출시될 3세대 XC90에 고속도로 등 특정 조건에서 레벨 4 서비스를 구현할 수 있는 하드웨어를 장착할 예정이다. 다만 소프트웨어는 상용화는 좀 더 이후가 될 전망이다.

한편 BMW는 당초 22년 출시될 전기차 iX에 레벨 3 자율주행 기능을 구현할 예정이었으나 안전 한 기술이 구현되기 전까지 레벨 3 기능 탑재를 보류하기로 하였다. 도요타 역시 21년 출시될 LS 에 레벨 3를 도입하려던 계획을 수정하여 레벨 2+ 수준의 자율주행 기능을 탑재할 계획이다. 여전 히 레벨 3로의 전환은 쉽지 않은 선택임을 시사한다.

그림 16. 매킨지의 레벨별 자율주행 시장 전망 그림 17. 벤츠 21년 레벨 3 EQS 출시 예정: 라이다, HD Map 사용

자료: 매킨지, 미래에셋증권 리서치센터 자료: 다임러, 미래에셋증권 리서치센터

0 10 20 30 40 50 60 70

2020 2025 2030

레벨 2 레벨 2+

레벨 3 고속도로 레벨 3 트래픽 잼 레벨 4 고속도로 (%)

(13)

2. 데이터 및 AI 기술 확보는 지금부터 가속화될 전망

자율주행 서비스의 상용화는 단계적으로 이루어지겠으나, 데이터 및 AI 기술 확보는 지금부터 가 속화될 것으로 예상된다. 그 이유는 다음과 같다.

첫째, 자율주행 기술이 딥러닝 기반으로 발전함에 따라 데이터 확보가 중요해졌기 때문이다.

기존의 접근법은 기술을 완성한 후에 상용화하는 것이었으나, 이는 실제 도로 주행에서 발생하는 수 많은 코너 케이스에 대응하기 어렵다는 것이 점차 확인되고 있다. 실 주행 데이터로 인공지능을 훈련시키는 것이 중요해지고 이미 테슬라의 데이터가 기하급수적으로 쌓이고 있다는 점을 감안하 면 자동차/테크 업체들은 가능한 빨리 데이터를 확보해야 할 것으로 예상된다.

둘째, 고도화된 레벨 2 서비스가 고수익 비즈니스 모델로 이어질 수 있음이 확인되고 있다.

테슬라는 레벨 2+ 소프트웨어를 10,000달러에 판매하고 있으며 구독 서비스가 시행되면 소비자 들의 옵션 채택률이 높아질 것으로 예상된다. 중국의 테슬라를 표방하고 있는 니오, 샤오펑 등 신 생 전기차 업체들도 구독 모델을 도입하고 있다. 샤오펑은 레벨 2+ 시스템인 XPilot 3.0의 연간 구 독료를 12,000위안으로 책정한 바 있다. 폭스바겐도 시간 단위의 구독 모델을 검토하고 있다.

셋째, 특히 중국 등 주요 시장에서 자율주행 기능이 상품성 차별화 요인이 될 전망이기 때문이다.

2019년 매킨지에서 프리미엄 자동차 구매자들에게 시행한 설문 조사에서 구매자들은 ‘자율주행이 주요한 구매 결정 요소가 될 것인가’라는 질문에 중국은 81%, 독일은 60%, 미국은 50%가 ‘그렇 다’고 응답했다. 특히 중국과 같은 신흥국에서 선호도가 높은데 이는 운전자들이 젊어 운전 경험이 적고 신기술 선호도가 높기 때문으로 추정된다. 전세계에서 가장 빠르게 성장하는 중국 시장에서 이처럼 자율주행의 선호도가 높은 것은 자동차 업체들의 경쟁력 측면에서 시사하는 바가 크다.

넷째, 중장기적으로 자율주행 기술이 자동차 산업 내 핵심 경쟁력이 될 가능성이 높다.

자동차 산업은 저성장, 공급 과잉 상황이고 내연기관이 전기차로 전환될수록 엔진 성능, 브랜드 등 에 따른 차별화 요인이 점차 희석될 전망이다. 자동차 업체들이 향후 5~10년 바뀌는 시장에서 경 쟁력을 확보하기 위해서는 자율주행을 중심으로 한 소프트웨어 경쟁력이 핵심이 될 전망이다. 특 히 자율주행은 요구하는 기술 및 안전 수준이 매우 높기 때문에 선후발 업체간의 기술 격차가 클 것으로 예상되고, 경쟁력 상위 업체들이 시장을 장악할 가능성이 높다.

그림 18. 딥러닝의 핵심은 데이터의 퀄리티 그림 19. 매킨지 서베이: 자율주행이 프리미엄 자동차 구매자들에게 주요한 구매 결정 요소가 될 것인가?

자료: Sumologic, 미래에셋증권 리서치센터 자료: 2019 매킨지 미래 모빌리티 서베이, 미래에셋증권 리서치센터

0 20 40 60 80 100

중국 프랑스 독일 미국 평균

(%)

(14)

3. 비 테슬라 진영 현황: 모빌아이/웨이모/엔비디아

현재 자율주행 시장은 완성차, 빅테크, 서비스 기업 등 다양한 영역에서 경쟁이 이루어지고 있다.

2019년 테슬라가 FSD를 출시하며 시장에서 높게 평가받고 있지만 다른 완성차 업체들도 다양한 방식으로 자율주행 개발에 힘을 쏟고 있다. 대부분의 자동차 업체들은 레벨 2~2+ 수준의 자율주행 을 구현하고 있으며 이는 상당 부분 모빌아이/엔비디아 등 테크 업체와 협력 하에 이루어지고 있 다. 대부분 21~22년 일부 제한적인 레벨 2+~ 레벨 3 서비스를 출시하고 24~25년 레벨 4 이상을 상용화할 계획이나 최근에는 승용 서비스보다는 상대적으로 구현이 쉬운 트럭 등 상용차에 보다 집중하는 모습니다. 업체별로 GM은 2016년 크루즈를 인수하며 자율 주행을 개발 중에 있으며 마 이크로 소프트 클라우드 서비스를 활용한 자율주행 서비스를 출시할 계획이다. 포드는 차량공유기 업 리프트/아르고AI와 협력해 자율주행차 개발을 진행 중이며, 2022년 부분적인 자율주행 서비스 운행을 추진하고 있다. 혼다는 지난 3월 세계 최초로 레벨 3 자율주행 자동차 판매를 시작하였다.

자체적인 플랫폼과 SW를 사용하려는 완성차 업체들은 많지만 아직까지 한계가 있는 만큼 대부분 협업을 택하고 있다. 현재 자율주행 시장에서 대표적인 협업 대상 업체로는 구글의 웨이모, 인텔의 모빌아이, 엔비디아가 있다.

1) 모빌아이 (인텔)

모빌아이는 현재 ADAS용 반도체 제품, REM(Road Experience Management) 등의 데이터 비즈 니스, 자율주행 솔루션이란 3개의 사업모델을 갖추고 있다. 카메라를 이용한 영상인식 기반 ADAS 를 최초로 개발하였고 영상 인식을 처리하는 알고리즘과 칩을 개발 판매하고 있다. 모빌아이는 현 재 전 세계 주행 보조 장치의 기술과 칩 시장 점유율에서 1위이다. 2020년은 COVID-19의 영향 에도 불구하고 자율주행 칩 EyeQ를 1930만개를 출하하며 2019년 대비 10% 성장하였다. 최근 에는 독일 뮌헨 고속도로에서 자율주행차 테스트 모습을 1시간짜리 동영상을 통해 공개했다. 동영 상에서 사용된 시스템은 11개의 카메라를 처리할 수 있는 2개의 EyeQ5, 그리고 예비용 라이다 및 레이더를 사용하였다. 교차로를 통과시 비보호 좌회전도 보여주는 등 높은 완성도를 보여 주었 고 다양한 상황에 대해 대처하는 모습도 인상적이었다.

모빌아이는 오는 2025년까지 자율주행차 시스템 비용이 5000달러이하로 내려갈 것으로 전망하였 다. 모빌아이의 장점은 1) GPU 시스템 대비 상대적으로 저렴한 가격, 2) 높은 ADAS 점유율에 따른 데 이터 확보 용이성, 3) 인텔을 통한 다양한 하드웨어 확보 등이지만 폐쇄적인 SW가 단점으로 꼽힌다.

표 2. 모빌아이 협업 및 파트너쉽

연도 기업 모델, 비고 내용

21년 5월 Toyota 차량 향후 몇년간 모빌아이의 EyeQ4 SoC와 ZF의 Gen21 중거리 레이더 기술 결합하여 ADAS 공급할 예정

21년 4월 Udelv 기술협력 23년부터 Udelv는 Mobileye Drive 적용하여 4레벨 자율 주행 목표 운영 예정. 2028년 35,000대 운영 목표

20년 7월 Nissan Rogue 21년 가을부터 EyeQ4 프로세서와 ADAS 카메라를 장착한 로그 출시 예정 20년 7월 Ford F-150, Mustang

Mach-E 등

EyeQ SoC와 소프트웨어를 활용하여 포드 Co-Pilot360 자율주행 레벨 1, 2 모델들을 발전 시켜줄 예정

20년 7월 Willer Robotaxis 21년 Robotaxis 일본에 자율주행 시범을 시작으로 23년까지 서비스 상용화 계획과 동남아 진출 예정

16년 7월 BMW 기술협력 자율주행 플랫폼을 위한 시스템 및 솔루션 개발하여 21년까지 생산 도입 노력

18년 10월 Volkswagen, EV 모델 모빌아이 4레벨 AV kit 제공하여 EV모델 이스라엘에 22년까지 상용화 목표 20년 9월 Al Habtoor Group 기술협력 두바이에 ADAS 기반 자율주행 자동차를 위한 하드웨어/소프트웨어 개발 협력 19년 11월 NIO EV모델 EyeQ SoC, 하드웨어 및 솔루션 구성된 L4 AV 키트인 Mobile AV 시리즈로

시스템 구축 설계 제공 자료: 언론보도, 미래에셋증권 리서치센터

(15)

2) 웨이모 (알파벳)

웨이모는 라이더를 사용하는 가장 대표적인 자율주행 업체로 알려져 있다. 여전히 많은 문제를 가 지고 있으나 2020년 로보택시 서비스를 상용화 했으며 향후 배송/운송에도 자사의 자율주행을 사 용할 예정이다. 웨이모는 2009년 자율주행 프로젝트를 시작으로 자체 개발 차량도 출시 했으나 특 별한 성과가 없어 결국 자동차 업체들과 협업을 중점으로 사업을 바꾸었다. 웨이모는 2020년까지 101만 킬로미터의 시험 주행을 진행했으며 이중 인간이 개입한 거리는 총 4만 8천 킬로미터로 21회 개입을 했다.

웨이모의 가장 큰 특징은 바로 라이더 이다. 물론 다양한 센서의 상호 보완적 기능은 안전에는 긍 정적이다. 하지만 라이더의 가장 큰 문제는 바로 가격이다. 웨이모가 과거 사용하던 벨로다인의 제 품은 7만 5천 달러였다. 2019년 웨이모에서 자체 개발한 Honeycomb의 경우 7,500달러로 가격 이 하락했으나 여전히 높은 가격이라는 걸 부인할 수 없다. 최근 다양한 라이다 업체들이 상장하면 서 중장기적으로 라이다의 가격은 내려갈 수 있다고 생각되지만 데이터 사용량 등 여러 요인들을 고려했을 때 아직까지 긍정적인 전망보다는 우려가 높다

최근 웨이모를 이끌던 존 크르파칙이 CEO에서 물러났다. 사업성과 진행 모두 예상보다 부진했기 때문이다. 향후 테케드라 마와키나 COO와 디미트리 돌고프 CTO 두 명이 공동 CEO를 맡을 예정 이다. 웨이모는 이런 부정적인 상황에서도 지난 6월 신규 투자자 모집을 통해 25억달러의 자금을 유치하며 여전히 시장에서 자사에 대한 기대감이 높다는 것을 증명하였다. 현재 웨이모는 볼보, 다 임러등 다양한 자동차 업체와 유통 업체들과도 협업을 확대하며 사업을 확대하고 있다. 웨이모는 S/W 기술면에서는 인정받고 있지만 여전히 라이다, 최적화 등 풀어야할 숙제들이 남아 있다.

표 3. 웨이모 협업 및 파트너쉽

연도 기업 모델, 비고 내용

18년 6월 Walmart, Avis,

Autonation 기술협력 피닉스 지역 고객 픽업용 자율주행 딜 체결 19년 6월 Renault/Nissan 기술협력 프랑스와 일본에서 자율 주행 서비스를 위한 협력

19년 6월 Lyft 기술협력 향후 10개 이상의 자율 주행 미니밴의 자율 주행 협력

19년 11월 Jaguar Jaguar I-Pace 웨이모와 협력하여 Jaguar I-Pace에 5세대 테스트 자료 공개 - 360도 센서 장착 및 1500 feet 시야

20년 6월 Volvo 기술협력 Volvo의 독점 L4 파트너 (L4는 레벨4 완전 자율주행 기술)

20년 6월 Fiat Chrysler Ram Promaster 피아트 크라이슬러는 Waymo와 L4 단계 완전 자율주행 독점 계약 체결 20년 10월 Daimler Trucks Class 8 Trucks Class 8 차량에 SAE L4 기술 접목한 자율 주행 글로벌 전략적 파트너쉽 체결 자료: 언론보도, 미래에셋증권 리서치센터

그림 20. 구글 웨이모의 모습 그림 21. 웨이모의 자율주행 시스템

자료: 미래에셋증권 리서치센터 자료: 미래에셋증권 리서치센터

(16)

3) 엔비디아

엔비디아의 자율주행 플랫폼은 크게 하드웨어/소프트웨어/인프라로 구성된다. 엔비디아는 자사 GPU 기반의 딥러닝과 이를 통한 이미지 인식·판단 능력 향상, 개발자부터 최종 제품까지 연결하 는 생태계를 완성했다. 앞서 설명한 구글 웨이모/인텔 모빌아이 보다는 자율성이 높다.

엔비디아가 다른 경쟁사와의 가장 큰 차이점은 바로 이 개방성과 토탈 솔루션이다. 자율주행차의 개발 자들이 사용하는 프로그래밍 언어부터 데이터센터, 최종 제품에 이르는 전 과정에 필요한 AI 처리 를 완성차 메이커와 서플라이어에 제공할 수 있는 유일한 개방 플랫폼을 보유하고 있다. 물론 프로 세서나 소프트웨어도 범용성에 초점을 두고 있어 테슬라 만큼의 효율성을 기대하기 어렵지만 자동 차 업체들이 자신들에게 맞는 시스템을 구축할 수 있다.

대표적인 제품인 Orin의 경우 2022년부터 생산되는 차량에 탑재될 예정이며 이미 다양한 자동차 제조업체가 채택하였다. 최근 개최된 볼보자동차 테크 모멘트 행사에서 볼보는 차세대 소프트웨어 정의형 차량을 위한 엔비디아 드라이브 오린 기반 중앙집중식 컴퓨팅 아키텍처를 구축한다고 발표 하였다. 소프트웨어 정의형 차량은 현재 테슬라와 같이 차량 출고 이후에도 물리적인 업데이트가 아닌 OTA를 통해 무선 업데이트가 가능하다. 오린은 AI/일반 컴퓨팅/엔포테이먼트 3가지로 구성 되었다. ECU의 통합은 네트워크의 효율성 증가에 따른 응답속도 증가와 손쉬운 시스템 업데이트 가 가능, 전력소모 감소 등 다양한 장점을 갖추고 있다.

일반 차량들은 기존 공급업체와의 관계 때문에 ECU/SW 통합에 어려움이 있다. 하지만 OTA를 위해서는 필수적인 요소인 만큼 향후 대부분의 차량 업체들이 ECU/SW 통합을 목표로 할 것으로 예상된다. 현재 자동차 업체들에게 통합 솔루션을 제시할 수 있는 업체는 엔비디아가 유일하다. 웨 이모/모빌아이는 자율주행 부분에서 뛰어난 성능을 갖추었지만 엔비디아 만큼 고객사들이 여러 부 분을 수정하기에는 한계가 존재한다.

엔비디아는 단순히 SW의 개방성과 소프트웨어뿐만 아니라 개발/검증을 단순화 시킬 수 있는 플랫 폼도 제공한다. 최근 소개한 하이페리온은 중앙 집중식 컴퓨팅에 더해 전체 센서 설정을 포함 지능 형 차량의 하드웨어를 검증하는 데 필요한 모든 기능을 제공한다. 또한 자율주행 소프트웨어를 평 가하고 검증할 수 있다. 이렇게 엔비디아는 하드웨어/소프트웨어 강점과 개방성이라는 장점으로 자율 주행시장에서 빠르게 입지를 넓혀가고 있고 다양한 업체가 채택하고 있다.

표 4. 엔비디아 협업 및 파트너쉽

연도 기업 모델, 비고 내용

17년 7월 Audi A8 18년도 NVIDA 칩을 이용한 세계 최초 자율 주행 3단계 적용한 New A8

모델 출시

18년 1월 Volkswagen I.D. Buzz 22년에 NVIDIA DRIVE™ 적용한 미니버스 모델 출시 예정

19년 3월 Toyota 전체 TRI-AD(도요타 리서치 연구)는 NVIDIA DRIVE AGX Xavier™ 활용하는 기술 협력

20년 6월 Mercedes-Benz 전체 24년부터 NVIDIA DRIVE™ 플랫폼 기반인 지능형 소프트웨어를 장착한 차량 출시 예정

20년 11월 현대, 기아 전체 22년부터 인포테인먼트(IVI) 시스템인 NVIDIA DRIVE ‘커넥티드 카’ 플랫폼 적용 예정

21년 1월 NIO Adam 22년 중국에서 NVIDIA DRIVE Orin 기반인 ET7 세단 출시 예정 21년 4월 VinFast 프리미엄 EV 모델 22년부터 프리미엄 EV 모델 NVIDIA DRIVE Xaiver SoC 장착 예정 21년 4월 VolVo XC90 22년 차세대 XC90 모델에 NVIDIA DRIVE Orin 적용

21년 6월 DeepMap 인수 NVIDIA는 고화질 맵핑, 위치 기반 기술력을 가진 DeepMap 인수 자료: 언론보도, 미래에셋증권 리서치센터

(17)

IV. 핵심은 데이터와 AI: 반도체/클라우드/센서

1. AI 반도체

1) 딥러닝과 AI 반도체

자율주행은 인간 대신 차량이 인지/판단/행동을 해야 되기 때문에 자율주행에서 인간의 뇌처럼 핵 심적인 역할을 담당하는 프로세서의 역할은 굉장히 중요하다. 자율주행의 시작인 인지는 카메라를 통한 시각, 레이더/라이더를 통한 사물 인식 등 다양한 방식이 있다. 현재 가장 보편적으로 사용되 는 것은 카메라를 통한 시각적 인지이다. 프로세서는 카메라를 통해 얻어낸 시각적인 정보에서 필 요한 정보를 추출해 분석한다. 과거 기계가 사물은 인지하는 능력은 한계가 있었다. 이를 해결하기 위해 기계 학습이 도입되었다. 매번 주변 사물에 맞추어 알고리즘을 고안하고 프로그램으로 옮기 는 것은 한계가 존재하기 때문에 학습이 가능한 알고리즘을 통해 프로그램을 구현하여 변화에 대 응할 수 있게 하였다. 여기서 문제는 기계 학습과 같이 학습된 데이터를 기반으로 만들어진 모델의 경우 모델에 근접한 새로운 데이터가 들어올 경우에는 정확하게 사물을 구분하고 파악하지만 유사 한 데이터들은 사람과 같이 융통성 있게 처리할 수는 없었다.

사람에 가까운 유연성을 확보하기 위해 도입된 것이 딥러닝이다. (딥러닝과 테슬라 시스템 참고 Page 6) 딥러닝은 데이터의 전처리 과정을 도입해 비지도 학습법으로 각 층을 구성한 이후 처리한 데이터를 여러 층으로 겹겹이 쌓아 올려 최적화 작업을 진행한다. 이런 결과를 통해 구축된 신경망 단계를 거쳐 회귀/분류를 할 수 있게 되어 사람과 같이 유연한 사고가 가능하다. 딥러닝 역시 기계 학습의 일부인 만큼 데이터 학습을 통해 새로운 데이터의 특질을 예측하는 것이 목표이다. 특질을 예측하기 위해서는 특질을 자동으로 학습하는 알고리즘이 필요하다. 합성곱 신경망을 사용할 경우 비선형 특질의 여러 층을 추출해 분류 후 모든 특질들을 결합하여 예측을 한다. 정확한 데이터의 추출은 층의 개수와 비례한다. 현재 시각적 이미지 분석에 가장 보편적으로 사용되는 방식은 인간 의 시신경을 분석해서 만든 합성곱신경망 CNN(Convolutional Neural Network)이다. 자율 주행의 경우 한가지 사물을 판단하는 것이 아닌 다양한 사물을 한번에 파악해야하기 때문에 CNN만으로 는 한계가 존재했고 이를 보안하기 위한 R-CNN/Fast R-CNN등이 도입되었다. 사물 인식만 살펴 보더라도 더 정확한 데이터 수집을 기반으로 사물들과 주위를 인식하기 위해서는 수많은 특질과 여러 층을 구성해야 한다. 이는 강력한 계산 능력이 필요하다는 의미이고 대량의 데이터를 동시다 발 적으로 연산해야 한다는 뜻이다. 이에 따라 사물인식에 병렬연산이 부각되기 시작하였다.

그림 22. 기계학습 vs 딥러닝

자료: Quora

(18)

그림 23. CNN 기본 인식 방법

자료: Nvidia,

그림 24. R-CNN

자료: towardsdatascience

그림 25. Fater R-CNN 그림 26. R-CNN 속도 비교

자료: towardsdatascience 자료: towardsdatascience, 미래에셋증권 리서치센터

49 4.3

2.3 0.2

R-CNN SPP-Net Fast R-CNN Faster R-CNN

(19)

2) 자율주행 프로세서

자율주행 프로세서는 1) 높은 지속성과 신뢰도, 2) 충분한 실시간 계산 능력, 3) 에너지 효율 등이 필수 이다. 주변에 있는 사물이나 상황인식을 놓친다면 사고로 이어질 수 있기 때문에 지속성과 신뢰도 는 기본 요소이다. 그리고 앞서 설명한 사물 인식만 하더라도 어마어마한 계산 능력이 필요한 것을 알 수가 있다. 보통 높은 연산은 많은 에너지 사용으로 이어진다. 중장기적으로 자동차 전장화가 가속될 것으로 예상되는 만큼 에너지 효율도 중요한 이슈가 될 것으로 예상된다. 자율주행 AI칩들 은 크게 GPU/FPGA/ASIC(SoC) 3가지로 구분할 수 있다.

현재 가장 보편적으로 사용되고 있는 것은 GPU이다. 2000년 중반 이후 GPU의 부동소수점(일반 적으로 과학적 또는 멀티미디어 연산 처리에 사용됨) 연산 능력이 CPU를 넘어 서며 GPU를 이용 한 다양한 시도가 시작되었다. 그래픽이나 멀티미디어 부분뿐만 아니라 과거 CPU가 전담하던 연 산에 적극적으로 GPU를 가담시킨 것이다. 이렇게 GPU에 CPU처럼 프로그램이 가능하게 구성한 것을 범용연산 기술(GPGPU)이라고 한다.

엔비디아가 GPU에서 사용하는 병렬연산 방식을 일반 프로그램에도 손쉽게 적용시킬 수 있는 GPU 프로그래밍 확장라이브러리 ‘CUDA’를 발표하면서 GPU는 인공지능 시장에서 에코시스템을 구축할 수 있게 되었다. 이 후 자율주행 시장에서도 GPU 기술이 경쟁을 주도하는 양상이다. 현재 엔비디아의 경우 전세계 320여개의 회사와 함께 자율주행 플랫폼 개발 프로젝트를 진행하고 있다.

뛰어난 범용성, 상대적으로 저렴한 가격에도 불구하고 GPU에게는 치명적인 단점이 있다. 그것은 바로 발열과 높은 전력 소비량이다. 자동차의 전장화가 진행될수록 연산 장치 외에도 다양한 전자 부품이 필요하기 때문에 배터리와 소비전력은 매우 중요한 이슈 중에 하나이다. 이러한 단점을 극 복할 수 있는 대안이 바로 FPGA이다.

FPGA에 대표적인 업체는 자일링스(Xilinx, AMD 합병 진행 중)와 인텔이 인수한 알테라(Altera)가 있다. FPGA의 경우 수정이 가능한 게이트 배열로 구조화 되어 있어 높은 유연성을 갖추고 있다.

하지만 아직까지 프로그램 언어의 접근성이 떨어지고 가격이 높다는 단점이 있다. FPGA는 반도체 업체들이 신규 칩을 제작하기 앞서 시험을 위해 제작하는 용도로 사용되었다. 보통 원하는 수준에 도달하게 되면 주문형 반도체인 ASIC 또는 SoC로 넘어간다

ASIC은 빠른 속도와 높은 에너지 효율성을 지니고 있어 인공지능 전용 칩으로는 최상이라고 판단 된다. ASIC는 특정 용도에 맞추어 설계됐고 집적회로 구성이 최적화돼 있어, FPGA나 GPU에 비 해 작은 크기로 높은 성능과 낮은 전력 효율을 함께 제공할 수 있다. 단점은 일정 수준 이상의 반 도체 개발 능력, 오랜 연구기간, 높은 비용이다. 또한 특정 용도에만 맞추어 설계되어 있기 때문에 범용성 측면에서 한계가 있다.

현재 대부분의 자율주행 프로세서는 여러 프로세서 들을 합친 SoC나 자체 생산한 ASIC이다. 자체 제작한 칩으로 널리 알려져 있는 테슬라의 경우 3.0 이전에는 엔비디아의 GPU를 사용했으나 3.0 부터는 자체 생산한 칩을 사용한다. 현재 AI 반도체 개발에는 다양한 업체들이 참여하고 있지만 크 게 엔비디아/모빌아이/테슬라 진영으로 나누어진다.

표 5. 프로세서 종류별 장단점과 대표 기업들

종류 장점 단점 대표 기업

CPU 높은 관리 능력 대량의 데이터 처리속도 부족 Intel(INTC US), ARM, AMD(ADI US)

GPU 병렬연산, 빠른 통신, 에코시스템 높은 전력 소비, 발열 이슈 Nvidia(NVDA US), AMD(ADI US), Intel(INTC US), FPGA 빠른 통신, 유연성, 높은 효율성 높은 1회성 비용 Xilinx(XLNX US), Altera Intel(INTC US), Deephi

ASIC

(SoC포함) 뛰어난 효율성, 높은 연산능력 오랜 제작기간, 높은 초기비용

Alphabet (GOOGL US), Tesla(TSLA US), Intel(INTC US), Texas Instrument(TXN US), NXP Semi(NXPI US), Qualcomm(QCOM US) Apple (AAPL US)

자료: 미래에셋증권 리서치센터

(20)

3) 엔비디아(Nvidia, NVDA US)

먼저 GPU의 대표 업체인 엔비디아는 현재 3개 대륙의 주요 기업들뿐만 아니라 전 세계 370여개 업체들과 자율주행 부문에서 협력하며 자율주행 통합 하드웨어 시장을 이끌고 있다. 아직까지 전 체 매출에서 자율주행이 차지하는 부분은 미미하지만 엔비디아는 단순한 하드웨어뿐만 아니라 소 프트웨어, 개발 툴킷, 시뮬레이션 시스템 등 플랫폼을 바탕으로 자율 주행 생태계를 구축해 나가고 있는 만큼 성장이 기대된다.

엔비디아는 자사 GPU 기반의 딥러닝과 이를 통한 이미지 인식·판단 능력 향상, 개발자부터 최종 제품까지 연결하는 생태계를 완성해 나아가고 있다. 자율주행 기술의 발전은 이미지 딥러닝 기술 의 발전과 함께 했다고 해도 과언이 아니다. 앞서 설명한 것과 같이 이미지 분야 딥러닝에는 대량 의 고성능 GPU가 필요한 만큼 엔비디아의 GPU솔루션은 시장에서 큰 관심을 받고 있다. GPU의 강점 외에도 엔비디아가 다른 경쟁사와의 가장 큰 차이점은 개방성과 토탈 솔루션이다. 엔비디아 의 대니 샤피로는 엔비디아는 엔드 투 엔드, 즉 자율주행차의 개발자들이 사용하는 프로그래밍 언 어부터 데이터센터, 최종 제품에 이르는 전 과정에 필요한 AI 처리를 완성차 메이커와 서플라이어 에 제공할 수 있는 유일한 개방 플랫폼을 보유하고 있다고 언급했다.

엔비디아의 자율주행 플랫폼은 크게 하드웨어/소프트웨어/인프라로 구성된다. 하드웨어는 자율주 행 프로세서라 말하는 임베디드 플랫폼이다. Drive CX부터 시작되어 PX를 거쳐 지금은 AGX까지 발전되었고 최근에는 2025년 출시 예정인 Drive Atlan을 발표하였다. 테슬라의 경우 PX2 기반의 제품을 사용하다가 자체적인 프로세서를 채택하게 되었다.

현재 대표적으로 사용되고 있는 DRIVE AGX의 기본 모델인 Xavier의 경우 30W의 전력으로 초당 30조회(30TOPS)의 작업을 처리할 수 있으며 전력소모 기준 에너지 효율은 이전 세대 SoC 대비 15배나 높다. Xavier는 512코어의 볼타 GPU, 8코어로 구성된 CPU를 포함하여 총 6가지 (CPU /GPU/DLA/PVA/SIP/스테레오&광학 가속기)가 포함되어 있다. 254 TOPs 성능을 갖춘 Orin의 경우 2022년부터 생산되는 차량에 탑재될 예정이며 이미 다양한 자동차 제조업체가 채택하여 사 용할 예정이다. 올해 GTC 2021에서 발표한 Atlan은 차세대 GPU와 ARM CPU 코어를 기반으로 딥러닝 및 컴퓨터 비전 가속기가 하나로 통합된다. 무선 업데이트를 지원하고 멜라녹스 기술이 적 용된 블루필드 DPU도 포함될 예정이다. DPU를 통해 데이터 이동의 효율성과 AI 워크로드 향상 시킬 것으로 예상된다. Atlan은 오는 2025년부터 출시 및 완성차량에 적용될 예정이다.

Orin/Xavier/Atlan 모두 개방형 CUDA, Tensor RT API, 라이브러리를 지원한다.

그림 27. 엔비디아의 자율주행용 SoC 자비에(Xavier) 그림 28. 엔비디아의 자율주행용 SoC 아틀란(Atlan)

자료: Nvidia 자료: Nvidia

참조

관련 문서

7 자료: Bosch, 하이투자증권 리서치본부 자료: Bosch, 하이투자증권 리서치본부 그림.. 삼성이 투자한

❹ The great explosion of scientific creativity in Europe was certainly helped by the sudden spread of information brought about by Gutenberg’s use of

자료:

서독연방 헌법재판소장 Prof... the Protection of the

한국기업 인수합병

캐나다 몬트리올 콩코디아 대학교에서 물리 화학, 전자를 전공한 작가는 건축과 공연 예술의 교차점에 있는 인터랙티브 설치 작업을 주로 해오고 있다.. 그는 로봇

다변량 자료 : 3가지 이상의 변수를 가지고 있는 자료로 측정대상으로부터 여러 개의 변수들을 측정하여 구하는 자료..

American Museum)'과 같은 다른 박물관과 연계하여 학교 교육 프로그램을 개발 하였고 , 전체 박물관 관람객의 33%가 이와 같은 교육프로그램에 참여하기 위하