[카&테크]운전자 표정 알아보는 감정인식 기술...실내 음악·조명·온도까지 조절한다

모든 기술은 사람의 편의와 안전을 위해 발전하고 있다. 더욱 빠르고 편리한 기술 발전에서 사람을 이해하고, 사람과 기술이 서로 공감을 하는 방향으로 진화한다. 자동차 역시 마찬가지이다. 잘 달리고 편안한 것은 기본이고 기존의 자동차를 뛰어넘어 탑승자와 자동차가 서로 소통을 하며 공감 하고 이해하는 감정을 인식하는 단계로 발전하고 있다.

현대모비스 직원이 엠.비전(M.Vision)의 감정인식 기술을 시연하고 있다.
현대모비스 직원이 엠.비전(M.Vision)의 감정인식 기술을 시연하고 있다.

자동차의 감정인식 기술이 고도화되면 탑승자가 차 안에서 드라이브를 즐길 때 편안함을 느낄 수 있도록 차 안 조명 온도와 색상을 조절해 준다. 또 어떤 상황에서든 최적의 감정 상태가 될 수 있도록 적절한 음악을 선곡해 주는 등 주행 안전, 건강관리, 엔터테인먼트와 같은 다양한 측면에서 탑승자를 지원 할 수 있다.

탑승자가 말하지 않아도 최고의 서비스를 경험할 수 있게 되는 것이다. 피로가 얼굴에 드러나면 자동차 스스로 휴게소나 졸음쉼터로 이동하거나, 예민한 날에는 방지턱을 피하고 기분 전환이 가능한 경로로 안내하는 미래 모습을 그려볼 수 있다.

이러한 기술이 구현되기 위해서는 탑승자의 상태를 자동차가 정확하게 파악하는 것이 핵심이다. 기존 자동차 업계에서는 혈압·체온·심박 모니터링 등 탑승자 신체와 자동차가 직접적으로 연결되는 접촉식 센서 등을 통해 탑승자의 상태를 파악하고 있다.

현재 개발 중인 기술은 자동차 내부에 설치되어 있는 카메라·초음파·적외선 센서들을 통해 얻어진 정보들을 인공지능을 통해 학습하고 분석해, 탑승자에게 최적의 운행 환경을 제공하는 것을 목표로 하고 있다.

스타트업인 제네시스랩의 감정인식 기술 시연 장면.
스타트업인 제네시스랩의 감정인식 기술 시연 장면.

여러 센서들 중 탑승자 상태 파악에 가장 용이한 센서로는 카메라 센서를 뽑을 수 있다. 앞을 보고 운전만 하고 있으면 카메라가 알아서 사진을 찍고, 인공지능이 알아서 운전자의 상태를 분석을 할 수 있다. 자동차가 운행 중 발생하는 진동이나 소음에서 발생될 수 있는 노이즈와 탑승자가 불편을 느낄 수 있는 접촉식 센서들보다 얻어지는 정보의 양과 질에서도 우수하다.

카메라 센서를 통해 탑승자의 눈, 눈썹, 입, 입술 등의 얼굴 특징으로 표정변화를 감지 후 특정한 표정을 짓거나 근육의 움직임이 감지되면 인공지능의 알고리즘으로 분석해 이런 상황은 '기분이 좋은 상황이다', 혹은 '슬픈 상황이다' 등 감정에 따라 발현되는 얼굴의 특징을 분류한다. 이러한 특징에 맞춰 음악이나 조명, 실내 온도를 인공지능이 조절해 줄 수 있는 것이다.

현대모비스는 감정을 인식하는 기술을 확보하기 위해 국내 유망 스타트업과 협업 중이다. 현대모비스 스타트업 공모전(M.Start)에서 선발한 '제네시스랩'과 협업하기로 한 것이 대표적 사례다.

'제네시스랩'은 영상분석과 인공지능 기술을 기반으로 운전자의 감정을 분석하는 기술을 보유했다. 눈썹·콧등·입술 등 안면부의 70여 개 특징점을 파악하고 화자의 음성에 담긴 감정 상태를 함께 분석하는 방식이다. 경험이 누적될수록 성공률이 높아진다.

현대모비스는 이러한 감정인식 기술을 활용해 졸음운전이나 음주운전, 운전 불능 상태에 대한 감지와 기존의 첨단운전자지원시스템, 조향과 제동 등 샤시제어시스템의 노하우를 살린 자율주행 갓길 대피시스템까지 구상 중이다. 탑승자의 상태에 맞춘 자동선곡, 인테리어 조명 제어 등 자동차에 최적화된 인포테인먼트 기술도 발전시키겠다는 계획이다.

박태준기자 gaius@etnews.com