자동차 전장 전문업체 하만(Harman)이 'CES 2019'에서 미래형 자율주행·커넥티드카 서비스 전략을 공개했다.
하만은 9일(현지시간) 미국 라스베이거스 하드락호텔에 마련한 'CES 2019 하만 쇼케이스' 현장에서 스마트카 기술 전략을 선보였다.
하만은 커넥티드카 솔루션 '이그나이트(Ignite) 3.0'을 처음으로 공개했다. 자동차 제조사를 위한 차량용 통합형 클라우드 기반 플랫폼이다. 차량 내 커넥티드 라이프 환경 구축에 필요한 디지털 생태계라 할 수 있다.
운전자들은 하만 이그나이트 3.0을 통해 삶의 다른 모든 영역에서 항상 사용하고 의지하게 된 몇 가지 스마트한 기능들을 차량 안에서도 직접 사용할 수 있다.
하만 이그나이트 3.0 핵심은 다양한 AI 음성 비서를 연결하는 '브릿지(Bridge)' 역할을 하는 '지능형 추론 에이전트(IRA·Intelligent Reasoning Agent)'다. IRA는 운전자 요구, 차량 필요 조치를 가상에서 원활하게 조율하는 차량 기반 새로운 개인 비서 기능이다. 아마존 '알렉사(Alexa)', 구글 '어시스턴트', 삼성전자 '빅스비(Bixby)' 등 다양한 AI 음성비서와 연결된다. 고객은 IRA에게 종류에 상관없이 개인 비서 서비스를 수행하도록 요청하면 IRA는 적절한 제공 서비스와 연결해준다.
하만은 △카메라 모니터링 시스템 △전방카메라 △뉴로센스 운전자 모니터링 솔루션 △라이다 등 자율주행차에 대한 미래 기술전략도 공개했다. 하만 증강 현실 플랫폼은 첨단운전자보조시스템(ADAS) 관련 정보를 새로운 방식으로 시각화해 제공함으로써 ADAS 기술에 대한 신뢰도를 높였다.
레벨3 자율주행차는 운전 대부분의 영역을 스스로 제어하지만 특정 구간에서는 사람이 대신해야 한다. 레벨3 자율주행차 가장 큰 도전 과제는 '운전 제어권 이양'을 관리하는 능력이다. 하만은 운전 제어권 이양이 원활하게 진행될 수 있도록 '뉴로센스(Neurosense)'라는 첨단 운전자 모니터링 솔루션을 개발했다.
뉴로센스는 운전자 시선, 머리 위치 및 동공 지름과 같은 가장 중요한 1차 생체 인식 기능을 모니터링 센서로 감지한다. 이는 낮은 수준의 자율 주행 차량에도 적용될 수 있는 동시에 미래 반자율 주행 차량 성공에 결정적 역할을 할 수 있다.
전방 카메라는 일반적으로 자동차 앞유리 중앙에 설치돼 주행 환경을 감지하고 차선, 물체 및 표지판 감지와 같은 기능을 위한 첨단 인식 알고리즘을 구현한다. 하만 자체 모듈 내에서 관리되는 센서 융합 기술은 장거리 레이더와 데이터 통합으로 전방 차량 탐지 및 차량 간 안전거리를 유지하도록 도와준다.
하만이 이노비즈 테크놀로지(Innoviz Technologies)와 협업한 라이다(LiDAR) 기술은 자율 주행 차량이 주행 방향뿐 아니라 전방의 물체를 좀 더 정확하게 볼 수 있게 한다.
하만의 센서 융합 기술을 통해 라이다를 통해 얻은 데이터는 전방 카메라의 데이터와 통합되어 좀 더 많은 차량에 안전성을 높일 수 있도록 사용된다. 이러한 협업은 더 큰 그림의 미래 모빌리티 목표 실현을 위한 개방적이고 광범위한 혁신 파트너사들의 생태계를 구축하고자 하는 하만의 오랜 헌신의 결과다.
라스베이거스(미국)=류종은 자동차/항공 전문기자 rje312@etnews.com