얼마 전 일론 머스크 테슬라 최고경영자(CEO)는 연내 자율주행 기본 기능을 구현할 수 있고, 5단계 자율주행 기술도 빠르게 개발될 것이라고 전망했다. 그러나 테슬라 차량이 자율주행 도중에 트레일러를 들이받고, 우버 차량에 의한 자전거 운전자 사망 사고를 보면 아직 자율주행이 안전하다고 느껴지지 않을 뿐만 아니라 도로 위 새로운 세상을 보여 줄지도 의문이다.
완전자율주행 구현을 위해서는 여러 산업 분야에서 지금보다 훨씬 더 많은 준비가 필요하다. 완전자율주행이 가능해지는 시기를 알기 위해서는 우선 자율주행 차량의 눈과 두뇌 역할을 하는 센서 및 인공지능(AI)의 현재 수준을 살펴봐야 한다.
자율주행 차량은 카메라, 라이다, 레이다, 초음파센서 등을 탑재한다. 다양한 센서로부터 수집한 정보에 AI 인식 기술을 접목, 주변 상황을 인식·판단해서 주행하는 원리다. 그런데 센서와 AI 기술이 아직 완벽하지 않다는 게 전문가들의 일반 평가다.
우선 센서의 인식 범위가 제한된다. 먼 거리 또는 사각지대에 있는 차량을 인식하지 못하는 경우가 있어 고속주행 차량의 경우 위험에 노출될 수 있다. 센서에 이물질이 묻거나 충격을 받아 틀어지는 경우에도 사각지대가 생긴다.
환경 변화에 따른 인식 정보의 오류도 발생한다. 야간 자율주행 시범은 종종 있었지만 폭우나 폭설이 내리는 날 자율주행 시범 사례는 흔치 않은 이유다. 날씨에 따라 카메라뿐만 아니라 라이다도 인식률이 매우 떨어지기 때문에 주변 차량을 정확히 인식하기가 어렵다.
센서로는 인식할 수 없는 도로상 정보도 많다. 신호등의 잔여 시간, 차량의 정차·주차 상태, 사고 정보 등은 센서로만 인식하기가 어렵다.
센서가 인식할 수 있는 랜드마크 부재 시 AI 작동에도 장애가 발생한다. 주변에 인식할 만한 표지판, 건물 등이 없다면 사람은 새로운 정보를 기억을 통해 학습한다. 반면에 자율주행 차량은 정보가 없을 경우 기존에 학습된 AI만으로 주행 전략을 수립하기가 어렵다.
언제 어디서나 자율주행이 가능한 레벨 4~5단계의 완전자율주행이 되려면 5세대(5G) 이동통신 기반 차량사물통신(V2X), 차세대 도로 인프라, 자율협력주행 플랫폼 등은 필수다.
5G-V2X는 차량 간, 차량과 도로 인프라 간, 차량과 보행자 간, 차량과 클라우드 간 통신을 통해 센서로 인식할 수 없는 정보까지 차량에 전달한다. 5G-V2X 기술을 탑재한 일반 차량에도 정보를 전달, 주행 안전성을 높이는 것도 가능하다.
차세대 도로 인프라는 신호등 정보, 사고 정보, 사각지대의 차량, 무단횡단 보행자 등 도로 상황을 인식해 자율주행 차량이 필요한 정보를 생성한다.
자율협력주행 플랫폼은 고정밀 측위, 다이내믹 정밀지도, 빅데이터 관제 등으로 구성된다. 고정밀 측위는 위성항법장치(GPS) 신호 오차를 보정, 차량 위치를 ㎝ 단위로 파악한다. 다이내믹 정밀지도는 차로 단위 구분이 가능한 정밀지도 위에 신호등 정보, 차량 정보, 보행자 정보, 교통 흐름 등 도로 위 정보를 표준화해 전송한다. 빅데이터 관제는 자율주행차량 및 도로 인프라에서 수집된 정보를 모니터링하고, 위험 상황을 예측해 알린다.
이처럼 다양한 도로 위 기술들이 융합되고 차량들이 서로 협력하면서 주행할 때 안전이 담보되는 완전자율주행이 실현될 수 있다.
LG유플러스도 서울 강서구 마곡 사이언스파크에서 자율협력주행 기술을 선보인 바 있다. 자율협력주행에서 통신사가 기여할 수 있는 분야를 확인하고 이 분야 개발사 간 협력이 필요하다는 취지에서다. 앞으로 2027년까지 지방자치단체 자율주행 실증, 자율주행 기술개발 혁신사업 등 다양한 실증사업을 통해 여러 분야의 협력이 진행될 예정이다. 이를 통해 자율주행 기술 분야뿐만 아니라 법 제도, 서비스 측면에서도 자율협력주행의 기반이 마련되기를 기대한다.
류형상 LG유플러스 자율주행기술팀장 hsyou@lguplus.co.kr
-
박진형 기자기사 더보기