LG, 첫 생성형 AI 상용 서비스 공개...처음 보는 물체도 설명 척척

LG가 인간처럼 처음 보는 물체도 이전 경험을 활용해 자연어로 설명할 수 있는 생성형 인공지능(AI) 서비스를 공개했다. 평균 5개 문장을 10초 안에 완성, 대용량 이미지를 관리하는 기업에 업무 효율성을 혁신할 것으로 기대한다.

LG AI연구원은 18일(현지시간) 캐나다 밴쿠버에서 진행 중인 세계 최대 컴퓨터 비전 학회 ‘컴퓨터 비전 및 패턴 인식(CVPR) 2023’에서 ‘캡셔닝 AI’를 공개했다.

이미지 상의 다양한 요소와 특징을 인식해 설명글과 키워드를  생성하는 캡셔닝 AI
이미지 상의 다양한 요소와 특징을 인식해 설명글과 키워드를 생성하는 캡셔닝 AI

LG AI연구원이 공개한 첫 생성형 AI 상용화 서비스 ‘캡셔닝 AI’는 인간처럼 처음 보는 이미지까지 이전 경험과 지식을 활용해 자연어로 설명할 수 있는 AI다. 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등 메타 데이터를 생성한다.

LG AI연구원은 캡셔닝 AI에 ‘제로샷 이미지 캡셔닝’ 기술을 적용했다. 이 기술은 AI가 기존 학습한 대량 이미지와 텍스트 데이터를 기반으로 배경, 인물, 행동 등 이미지상의 다양한 요소와 특징을 인식하고, 그 관계를 이해하고 설명할 수 있게 한다.

캡셔닝 AI는 문장이나 단어의 길이와 개수에 따라 다르지만 평균 5개 문장과 10개의 키워드를 10초 이내에 생성한다. 이미지 범위를 1만장으로 확장하면 2일 이내에 작업을 끝낼 수 있어 빠른 시간 내에 맞춤형 이미지 검색·관리 시스템 구축이 가능하다. 대량 이미지를 관리하는 기업들의 업무 효율성과 생산성을 높일 수 있다.

LG AI연구원은 글로벌 최대 이미지 플랫폼 운영 기업 셔터스톡과 데이터 학습부터 서비스 개발까지 협업했다. 양사는 학습 데이터 편향성·선정성 등 AI 윤리 검증을 진행하고, 저작권 투명성도 확보했다.

LG AI연구원은 이날 ‘제로샷 이미지 캡셔닝’을 주제로 서울대 AI대학원, 셔터스톡과 함께 워크숍도 진행했다.

현지시간 18일 진행한 워크숍에서 이홍락 LG AI연구원 CSAI가 캡셔닝 AI에 적용한 제로샷 이미지 캡셔닝 기술에 대해 설명하고 있다.
현지시간 18일 진행한 워크숍에서 이홍락 LG AI연구원 CSAI가 캡셔닝 AI에 적용한 제로샷 이미지 캡셔닝 기술에 대해 설명하고 있다.

이경무 서울대 석좌교수 개회사로 시작한 워크숍에는 LG AI연구원의 최고 AI 사이언티스트(CSAI)인 이홍락 미시간대 교수를 비롯해 코르델리아 슈미드 프랑스 국립 컴퓨터 과학 연구소 연구 책임자 겸 구글 리서치 연구원, 잭 헤셀 앨런 인공지능 연구소 연구원 등 이미지 캡셔닝 분야 전문가들이 참여했다. 최신 연구 동향과 미래 전망, AI 윤리 등 기술이 사회에 미치는 영향에 관해 심도 있는 논의를 진행했다.

이번 워크숍에서는 상반기에 진행한 ‘LG 글로벌 AI 챌린지’ 시상식도 열렸다. 자체 개발한 AI 모델의 이미지 이해 능력을 평가하는 대회인 ‘LG 글로벌 AI 챌린지’에는 총 142개 연구팀이 참여했다. 챌린지 1, 2위를 차지한 난징과기대, 카이스트(KAIST) 소속 참가자들은 워크숍에서 연구 성과를 발표하기도 했다.

김승환 LG AI연구원 비전랩장은 “이번 워크숍은 첫 번째 상용화 서비스인 ‘캡셔닝 AI’ 발표와 연계되어 있어 더욱 의미가 깊다”며, “이미지 캡셔닝 분야의 글로벌 연구 리더십을 확보하기 위해 다양한 파트너들과 유기적인 협력체계를 구축해 새로운 평가 지표 개발과 신기술 연구를 계속 추진할 계획”이라고 말했다.

한편 LG AI연구원과 LG전자, LG이노텍, LG에너지솔루션, LG유플러스 등 LG 주요 계열사는 학회가 열리는 22일까지 통합 부스를 열고 글로벌 AI 인재 유치에 나섰다. 19일에는 학회에 참가한 석·박사 학생들을 대상으로 네트워킹 행사인 ‘LG AI Day’를 진행한다.

정용철 기자 jungyc@etnews.com