LG전자가 27일 열리는 '구글 클라우드 서밋 서울 2024'에서 거대언어모델(LLM) 기반 인공지능(AI) 음성 인식 뿐만 아니라 고도화한 AI 자율주행 기능을 탑재한 'LG 클로이'를 선보인다.
사용자와 일상 언어로 자유롭게 소통하며 안정적 AI 자율주행을 구현하는 모습을 시연해 AI 로봇 시장 공략에 속도를 내는 전환점으로 삼는다는 방침이다.
LG전자는 구글 LLM '제미나이' 기반 LG클로이 안내로봇을 시연한다.
LLM을 적용한 LG클로이는 사용자 돌발질문에도 대응한다. 기존 로봇은 사전 입력된 음성 시나리오에 기반해 질의응답을 수행한다. 미리 등록되지 않은 질문에는 응답 정확도가 떨어질 수밖에 없다.
LLM 기반으로 AI 음성 서비스를 구현하면 로봇이 사용자와의 대화 과정에서 스스로 다양한 유사 질문을 생성하고 이를 시나리오에 등록한다. 스스로 커뮤니케이션 기능을 고도화하는 것이다.
LG전자는 LLM과 AI 기반으로 필요한 새로운 시나리오나 정보를 편리하게 업로드할 수 있어 B2B 시장에서 유용할 것으로 기대하고 있다.
LLM 기반 AI 음성 서비스는 가사생활도우미 로봇 '스마트홈 AI 에이전트'에도 적용된다. 내년 중 국내 시장에 선보이는 것을 목표로 개발 중이다.
LG 클로이 모델에는 라이다센서와 여러 대 카메라에서 입수한 영상 데이터를 통합·분석하는 AI 기반 비전분석 기술을 탑재했다. AI로 닫힌 문과 벽을 구분하는 것은 물론 창문 사이의 창틀을 인식해 통창인지 뚫린 공간인지까지 판단한다.
LG전자는 엘리베이터 탑승 때 내리는 사람을 인식해 안전하게 내린 후 탑승하는 기술을 적용했다. 에스컬레이터, 무빙워크 등 위험 지역을 설정하면 해당 공간으로는 진입하지 않는다.
향후에는 위험공간을 따로 설정하지 않아도 AI가 에스컬레이터를 인식해 스스로 진입하지 않는 기술까지 적용할 방침이다.
배옥진 기자 withok@etnews.com