LG가 초거대 인공지능(AI) '엑사원'(EXAONE)을 전격 공개했다. 지난 5월 앞으로 3년 동안 1억달러(약 1100억원)를 투자해서 글로벌 톱3 수준의 AI 개발에 나선다고 발표한 후 7개월여 만에 실체를 선보였다. LG 계열사 적용은 물론 세계적인 기업과 연합전선을 구축하는 등 생태계 확장에 나선다.
LG AI연구원은 14일 설립 1주년을 맞아 온라인으로 진행한 'LG AI 토크콘서트'에서 엑사원을 공개하고 주요 연구 성과와 계획을 발표했다. 초거대 AI는 대용량 연산이 가능한 컴퓨팅 인프라를 바탕으로 데이터를 스스로 학습해서 인간처럼 사고·학습·판단하는 AI를 의미한다. 엑사원은 'EXpert Ai for everyONE'을 줄인 말로, '인간을 위한 전문가 AI'를 뜻한다. EX는 '전문가(Expert)'라는 뜻 외에 100경을 뜻하는 접두어 'EXA'를 말한다.
LG AI연구원은 5월부터 인간의 뇌에서 정보를 학습하고 기억하는 스냅스와 유사한 인공신경망 파라미터를 13억개부터 1750억개까지 단계적으로 확대하며 초거대 AI를 연구했다. 파라미터는 AI가 딥러닝으로 학습한 데이터가 저장되는 곳으로, 많을수록 정교한 학습을 할 수 있다. 엑사원은 국내 최대인 3000억개의 파라미터를 보유했다. 언어뿐만 아니라 이미지, 영상까지 인간의 의사소통과 관련된 다양한 정보를 습득하고 다룰 수 있는 '멀티 모달리티' 능력을 갖췄다.
LG AI연구원은 자체 개발한 알고리즘을 이용해 언어를 이미지, 이미지를 언어로 각각 변환하는 기술을 구현했다. '멀티 모달 AI'로 가는 첫 단계다. 품질 역시 글로벌 최고 수준인 SOTA(State-of-the-art)를 달성했다. 이 기술이 고도화하면 AI가 데이터를 습득해서 이해하는 수준을 넘어 추론하고, 시각과 청각 등 다양한 감각 영역을 넘나드는 창조적 생성이 가능하다.
LG AI연구원은 멀티 모달 AI를 만들기 위해 세계 최대 규모인 말뭉치 6000억개와 언어·이미지가 결합된 고해상도 이미지 2억5000만장 이상을 학습했다. 원어민 수준으로 한국어와 영어를 이해하고 구사하는 이중언어 AI라는 점도 차별화했다.
LG AI연구원은 엑사원이 제조, 연구, 교육, 금융 등 모든 분야에서 '상위 1%' 수준의 전문가로 쓰이도록 3단계 계획을 수립했다. 우선 LG 계열사가 엑사원을 쓰도록 개방형 응용프로그램개발환경(API)을 공개해서 전자, 화학, 통신 등 LG 사업 전반에 적용한다. 이후 여러 기업과 함께 얼라이언스도 결성한다. 이달 말부터 주요 글로벌 기업과 초거대 AI 생태계 구축을 위한 협업을 시작할 것으로 알려졌다. 협업 시 데이터 보안 문제를 해결하기 위해 '엑사원 튜닝'이라는 알고리즘도 자체 개발했다. 궁극적으로 초거대 AI를 독점하지 않고 일반 대중에게 공개한다. 공개 대상·범위·방법 등은 현재 검토하고 있다.
LG는 구광모 회장 취임 후 AI를 미래 먹거리로 삼고 공격적인 투자를 하고 있다. 지난해 12월 브레인 인프라인 LG AI연구원을 설립하고, 유명 석학을 연이어 영입했다. 초거대 AI 개발 로드맵을 공개하며 3년 동안 1100억원 투자를 발표한 데 이어 AI 강국인 미국에 LG AI연구원 지사 설립을 추진했다. 혁신적인 AI 기술을 확보해 차세대 배터리 소재나 혁신 가전·서비스 개발, 고객 맞춤형 마케팅 등 전사 경쟁력을 끌어올릴 디지털전환 무기로 사용한다는 계획이다.
배경훈 LG AI연구원장은 “난제를 해결하기 위해 끊임없이 도전하고, 우수한 연구 성과를 바탕으로 고객에게 꼭 필요한 전문가 AI를 만드는 연구원이 될 것”이라면서 “캐나다 토론토대, 미국 미시간대, 서울대, 한국과학기술원(KAIST) 등 국내외 주요 대학 및 석학들과 연구개발(R&D) 연계 체계를 강화하는 한편 향후 API 공개 및 외부 파트너십으로 글로벌 초거대 AI 생태계를 만드는데 기여할 것”이라고 말했다.
LG AI연구원은 이번 행사에서 출범 후 1년 동안 올린 성과도 공유했다. 연구 분야에서는 '최적경로강화학습' '작곡하는 AI' 등 올해에만 18편의 논문이 세계 최고 권위의 인공지능학회(AAAI, CVPR, ICLR, NeurlPS 등)에 채택됐다.
정용철기자 jungyc@etnews.com