사람이 웃으면 따라 웃는 로봇이 개발됐다. 아직은 다소 섬뜩한 모습이지만, 향후 사람의 감정에 표정으로 공감하고 자연스럽게 대화하는 로봇 개발의 초석이 될 것으로 기대된다.
28일(현지시간) 국제학술지 '사이언스 로보틱스'(Science Robotics)에 따르면, 미국 콜롬비아대학교의 크리에이티브 머신스 랩(Creative Machines Lab) 연구팀은 사람의 표정을 인식해 자신의 표정을 바꾸는 휴머노이드 로봇 '이모'(EMO)를 개발했다고 밝혔다.
연구팀이 공개한 영상을 보면, 사람 얼굴 모양의 로봇 '이모'는 맞은편에 앉은 사람이 눈썹을 들썩이거나 미간을 찌푸리고, 입꼬리를 올려 웃는 등 다양한 표정을 짓자 순식간에 모든 표정을 따라한다.
오픈 AI의 챗GPT(ChatGPT)같은 거대언어모델(LLM)의 발전으로 인간과 의사소통에 능숙한 로봇은 높은 개발 수준을 달성했지만 표정 같은 비언어적 의사소통 분야는 발전이 더디다. 이에 연구팀은 비언어적 신호에 특화된 로봇 '이모'를 만들어냈다.
비언어적 신호에 반응하는 로봇을 만들기 위해서는 두가지 과제가 필요하다. 첫 번째는 복합한 하드웨어와 작동 메커니즘을 통합해 다양한 표정을 만드는 것, 두 번째는 자연스럽게 보이기 위해 적시에 표정을 짓는 것을 로봇에게 가르쳐야 한다.
이에 연구팀은 인공지능(AI)과 액추에이터로 움직이는 얼굴 로봇을 결합했다. 먼저 연구팀은 고해상도 카메라를 통해 '이모'와 눈을 맞추고, 다양한 표정을 지으며 표정을 가르쳤다. 사람이 거울을 통해 표정을 연습하는 것과 같은 단계다.
이어 프레임별로 분석하기 위해 인간의 얼굴 표정이 담긴 영상을 학습시켜 표정을 예측하는 훈련을 했다. 그 결과 '이모'는 사람이 미소를 짓기 약 0.84초 전에 미소를 예측하고, 그 사람과 동시에 미소를 표현할 수 있게 됐다.
논문 주요 저자인 위항 후 연구원은 데일리 메일에 “미소가 완전히 생기기 전에 잠시 입꼬리가 올라가기 시작하고 눈이 약간 주름지기 시작할 수도 있다. 예측 모델을 통해 이와 같은 신호를 인식하도록 훈련돼 인간의 표정을 예측 가능한 것”이라며 “미소 외에도 슬픔, 분노, 놀라움 등 다른 표정도 예측할 수 있다”고 말했다.
연구팀은 향후 거대 언어 모델을 '이모'와 결합해 자연스럽게 표정을 짓고 대화하는 로봇을 개발할 예정이다.
연구소장 호드 립슨 교수는 “로봇과 상호 작용하는 것이 친구와 대화하는 것처럼 자연스럽고 편안하게 느껴지는 세상을 상상해보라”며 “인간의 표정을 정확하게 해석하고 모방할 수 있는 로봇의 발전을 통해 우리는 로봇이 일상 생활에 녹아 들어 동료애, 지원, 심지어 공감을 제공할 수 있는 미래에 더 가까이 다가가고 있다”고 말했다.
서희원 기자 shw@etnews.com