엔비디아, 인간처럼 판단하는 자율주행 AI 공개…올해 벤츠 CLA에 첫 적용


엔비디아(NVIDIA) CES 2026에서 공개한 자율주행 AI 모델 ‘알파마요(Alpamayo)’가 올해 안에 실제 양산차에 탑재된다. 메르세데스-벤츠(Mercedes-Benz)가 올해 미국 시장에 출시하는 신형 CLA가 첫 적용 차량이다. 엔비디아는 지난 12월 AI 학술대회 뉴립스(NeurIPS)에서 알파마요를 처음 공개했고, 이번 CES에서 구체적인 상용화 일정을 발표했다.

CES 2026 nvidia live with ceo jensen huang - 와우테일

젠슨 황 엔비디아 CEO는 CES 기조연설에서 “물리적 AI의 챗GPT 모먼트가 왔다”며 알파마요의 의미를 설명했다. 챗GPT가 대화형 AI를 대중화했다면, 알파마요는 현실 세계를 움직이는 기계가 인간처럼 생각하고 판단하는 시대를 연다는 것이다. 황 CEO는 메르세데스-벤츠의 올라 칼레니우스(Ola Kallenius) CEO와 함께 무대에 올라 신형 CLA가 샌프란시스코 도심을 주행하는 영상을 공개했다. 칼레니우스 CEO는 “4,000파운드(약 1.8톤) 무게의 물체가 시속 50마일로 달리는데 미안하다는 말로는 안 된다”며 안전성의 중요성을 강조했다.

신형 CLA는 메르세데스-벤츠의 새 운영체제 ‘MB.OS’를 탑재한 첫 차량이다. 엔비디아 드라이브 AV(DRIVE AV) 소프트웨어를 전면 채택했으며, 여기에 알파마요의 추론 기능이 통합됐다.

여기서 드라이브 AV와 알파마요의 관계를 명확히 할 필요가 있다. 엔비디아의 자율주행 시스템은 크게 세 층으로 나뉜다.

가장 아래층은 드라이브 하이페리온(DRIVE Hyperion)이다. 차량에 실제로 장착되는 하드웨어다. 카메라, 레이더, 라이다 같은 센서들과 이를 처리하는 컴퓨터(AGX Thor 또는 AGX Orin)로 구성된다. 엔비디아가 제시하는 레퍼런스 구성인 ‘하이페리온 10’은 카메라 14개, 레이더 9개, 라이다 1개를 쓴다. 자동차 제조사들은 이 레퍼런스를 기반으로 필요에 맞게 조정한다. 메르세데스-벤츠는 신형 CLA에 카메라 10개, 레이더 5개를 장착했다.

그 위에서 돌아가는 소프트웨어가 드라이브 AV다. 센서가 수집한 정보를 해석하고, 주행 경로를 결정하고, 실제 주행 명령을 내리는 소프트웨어 전체 패키지다. 드라이브 AV 안에는 여러 구성요소가 있다.

그중 핵심이 알파마요다. 복잡한 상황을 인간처럼 추론하고 판단하는 AI 모델이다. 비유하자면 하이페리온은 자동차의 눈과 귀, 드라이브 AV는 운전 시스템 전체, 알파마요는 그 안에서 판단을 내리는 두뇌인 셈이다.

mercedes benz cla 1280x680 1 - 와우테일

‘MB.DRIVE 어시스트 프로(MB.DRIVE ASSIST PRO)’라는 이름의 운전 보조 시스템은 레벨 2+ 수준이지만, 기존 시스템과는 차원이 다르다. 출발지에서 목적지까지 도심 주행을 자동으로 처리하는 ‘포인트 투 포인트(point-to-point)’ 기능을 갖췄다. 버튼 하나면 주차장에서 나와 복잡한 도심을 거쳐 목적지까지 운전자 개입 없이 주행할 수 있다.

테슬라의 FSD(Full Self-Driving)와 비슷해 보이지만, 메르세데스-벤츠는 안전 장치를 훨씬 강화했다. 카메라 10개와 레이더 5개를 장착했고, 엔비디아의 안전 시스템 ‘할로스(Halos)’를 기반으로 이중 안전망을 구축했다.

할로스는 엔비디아가 15,000명의 엔지니어가 투입해 만든 포괄적 안전 시스템이다. 단순히 차량 내부만 보는 게 아니라, 클라우드에서 AI를 학습시킬 때부터 차량이 실제 도로를 달릴 때까지 전 과정을 관리한다. 세 가지 층으로 구성된다.

첫째는 플랫폼 안전이다. 칩 자체에 수백 개의 안전 메커니즘을 내장했고, 운영체제(DriveOS)도 ISO 26262 자동차 안전 표준 최고 등급(ASIL-D)을 받았다. 하드웨어 자체가 고장 나도 시스템이 멈추지 않도록 설계했다.

둘째는 알고리즘 안전이다. AI를 학습시킬 때 쓰는 데이터 자체를 검증한다. 편향되거나 잘못된 데이터로 학습하면 AI도 잘못 판단하기 때문이다. 엔비디아의 시뮬레이션 도구 옴니버스(Omniverse)와 코스모스로 수백만 가지 상황을 가상으로 테스트하고 검증한다.

셋째는 생태계 안전이다. 실제 도로에서 수집한 데이터를 계속 분석해 AI를 개선한다. 문제가 생기면 자동으로 감지하고, 무선 업데이트로 즉시 수정한다.

엔비디아는 세계 최초로 ANAB(미국 국가인정위원회) 인증을 받은 ‘AI 시스템 검사 연구소’도 운영한다. 자동차 제조사들이 만든 시스템이 정말 안전한지 독립적으로 검증해주는 곳이다.

드라이브 AV는 두 가지 시스템을 동시에 돌린다. 하나는 알파마요 같은 AI가 엔드투엔드 방식으로 주행을 담당하는 시스템이다. 다른 하나는 기존 방식대로 물체를 인식하고 경로를 계획하는 고전적 시스템이다. 두 시스템이 병렬로 작동하면서 서로를 검증한다. AI 시스템이 이상한 판단을 내리려 하면, 기존 시스템이 즉시 개입해 막는다. 신형 CLA는 최근 유럽 신차 안전도 평가(EuroNCAP)에서 별 5개 만점을 받았다.

엔비디아는 이번 협력에 5년 넘게 수천 명의 인력을 투입했다고 밝혔다. 황 CEO는 “메르세데스-벤츠와 전체 스택을 함께 구축했다”며 “우리가 차량을 출시하고, 스택을 운영하고, 평생 유지보수할 것”이라고 말했다. 무선 업데이트(OTA)를 통해 기능이 계속 개선되며, 추가 기능은 메르세데스-벤츠 스토어에서 구매할 수 있다.

YouTube 동영상

알파마요가 주목받는 이유는 단순히 패턴을 학습하는 게 아니라, 상황을 논리적으로 분석하고 추론한다는 점이다. 마치 인간 운전자가 “저기 공이 굴러가네? 아이가 뛰어나올 수 있겠어”라고 생각하며 속도를 줄이는 것처럼, 알파마요도 원인과 결과를 따져가며 판단한다. 이를 ‘체인-오브-쏘트(chain-of-thought)’ 방식이라고 부른다. AI가 결론만 내놓는 게 아니라, 어떤 논리로 그 결론에 도달했는지 단계별 사고 과정까지 보여준다.

예를 들어보자. 알파마요가 탑재된 자율주행차가 도로에서 공사용 콘이 차선을 침범한 상황을 만났다고 치자. 기존 시스템이라면 “장애물 감지, 회피” 정도의 단순한 반응을 보였을 것이다. 하지만 알파마요는 “차선에 콘이 있다 → 콘을 피하려면 차선을 약간 벗어나야 한다 → 옆 차선에 차가 없는지 확인했다 → 왼쪽으로 살짝 이동해 콘과의 거리를 확보한다”는 식으로 추론 과정을 거친다. 그리고 이 모든 과정이 텍스트로 기록된다.

이런 설명 가능성은 자율주행차의 안전성 검증에 매우 중요하다. AI가 왜 그런 판단을 내렸는지 알 수 없다면, 규제 당국도 일반 대중도 믿기 어렵다. 알파마요는 자신의 판단 근거를 명확히 보여줌으로써 신뢰성을 높인다.

알파마요 1 모델은 100억 개의 파라미터로 구성된 대규모 AI다. 카메라로 받은 영상 정보를 이해하고(비전), 상황을 언어로 분석하며(언어), 실제 주행 행동으로 연결하는(행동) 세 가지 능력을 통합했다. 이를 ‘비전-언어-행동(VLA)’ 모델이라고 부르는데, 자율주행 분야에서 추론 기반 VLA 모델을 오픈소스로 공개한 건 엔비디아가 처음이다.

엔비디아는 모델만 던져주고 끝낸 게 아니다. 개발자들이 실제로 활용할 수 있는 완전한 도구 세트를 제공했다. 먼저 25개국 2,500개 도시에서 수집한 1,700시간 분량의 주행 데이터가 있다. 카메라는 물론 라이다, 레이더 같은 다양한 센서 정보가 담겨 있고, 특히 드문 상황들을 집중적으로 포함했다. 비가 억수같이 쏟아질 때, 안개가 자욱할 때, 해가 질 무렵 역광이 심할 때 같은 까다로운 조건들 말이다.

시뮬레이션 도구 ‘알파심(AlpaSim)’도 함께 공개했다. 자율주행 AI를 개발할 때 실제 도로에서만 테스트할 순 없다. 위험하기도 하고, 드문 상황을 재현하기도 어렵다. 알파심은 가상 환경에서 무수히 많은 시나리오를 만들어 AI를 훈련시키고 검증할 수 있게 해준다. 개발자가 원하는 대로 설정을 바꿔가며 테스트할 수 있고, 여러 시뮬레이션을 동시에 돌릴 수도 있어 개발 속도가 빨라진다.

알파마요 1은 실제 차량에 직접 탑재되는 모델이 아니다. 너무 크고 무겁기 때문이다. 대신 ‘선생님’ 역할을 한다. 자동차 제조사들은 알파마요 1을 기반으로 자신들의 하드웨어와 요구사항에 맞춰 더 작고 빠른 모델을 만들어낸다. 이 과정을 ‘증류(distillation)’라고 하는데, 큰 모델의 지식을 작은 모델로 압축하는 기술이다. 엔비디아의 생성형 AI 모델 ‘코스모스(Cosmos)’와 결합하면 가상의 주행 상황까지 만들어내 학습 데이터를 더욱 풍부하게 만들 수 있다.

루시드, 재규어 랜드로버, 우버(Uber) 같은 기업들이 알파마요에 관심을 보이고 있다. 우버는 “예측 불가능한 주행 상황을 처리하는 게 자율주행의 핵심 과제”라며 알파마요가 이 문제를 해결할 열쇠가 될 수 있다고 평가했다.

자율주행차 시장은 지금 중요한 전환점을 맞고 있다. 웨이모(Waymo)는 이미 피닉스, 샌프란시스코, 로스앤젤레스에서 로보택시를 운영 중이고, 올해 마이애미에서도 서비스를 시작할 계획이다. 아마존의 주옥스(Zoox)는 지난해 샌프란시스코에서 무료 시범 서비스를 시작했고, 올해부터 라스베이거스와 샌프란시스코에서 유료 서비스를 시작한다. 주옥스는 최근 100만 마일 주행을 돌파했다.

반면 GM은 작년 12월 로보택시 자회사 크루즈(Cruise) 접었다. 2016년부터 100억 달러 넘게 쏟아부었지만 상용화는 요원했고, 2023년 샌프란시스코 보행자 사고가 결정타였다. GM은 이제 개인 차량용 운전 보조 시스템 개발에 집중한다. 테슬라(Tesla)는 카메라만으로 자율주행을 구현하는 독자 노선을 걷고 있으며, 올해 캘리포니아와 텍사스에서 로보택시 서비스를 시작할 계획이다.

엔비디아가 알파마요를 오픈소스로 공개한 건 전략적 선택이다. 자율주행 기술의 표준을 선점하면서도, 실제 수익은 AI 연산에 필요한 GPU 판매로 얻겠다는 계산이다. 모델은 허깅페이스(Hugging Face)에서, 시뮬레이션 도구는 깃허브(GitHub)에서 누구나 내려받을 수 있다. 자율주행차가 정말로 인간처럼 생각하고 판단하는 시대가 열릴지, 이제 그 가능성을 엿볼 수 있게 됐다.

기사 공유하기

답글 남기기