“인공지능(AI) 컨택센터(콜센터)는 인간 상담사를 보조한다. 단순한 업무를 AI에 맡기고 보다 고도의 업무를 인간에게 맡기는 협력 모델이 바람직하다.” “AICC 시스템 구축시 급속히 발전하는 IT기술 솔루션을 끊김없이 빠르게 담아낼 수 있어야 한다.” “딥뉴럴 네트워크의 복잡성 증가에 따라 AI 학습시 필요한 대용량을 처리할 수 있고 최적화할 수 있는 처리방법에 대해 고민해야 한다.”...
24일 서울 삼성동 코엑스 그랜드볼룸에서 전자신문인터넷, 인공지능신문, 테크데일리 공동 주최로 열린 ‘인공지능(AI) 차세대 컨택센터 최신 기술 및 구축전략 컨퍼런스 2018’에서 강연자들은 뜨거운 열기 속의 인공지능 컨택센터(AICC)분야 트렌드와 구축방향을 이렇게 짚어냈다.
이들은 이날 강연에서 AI 응용의 최일선에 콜센터(컨택센터)가 있으며 이들이 AI와 인간의 공존시대를 열고 있다고 입을 모았다.
이날 컨퍼런스 첫 강연자로 나선 한국마이크로소프트(MS) 김영욱 부장(수석SW엔지니어)은 ‘The Age of Conversational AI(대화형 AI의 시대)’를 주제로 강연했다. 그는 MS가 인공지능과 MS 클라우드 ‘애저(Azure)’를 결합한 사업에 승부를 결고 있다고 밝히면서 다양한 MS의 솔루션과 활용 사례도 발표했다. 특히 최근 공식 발표된 MS AI비서 코타나와 아마존의 AI비서 알렉사의 결합에 따른 시장 변화에 대한 영향력과 기대감도 소개했다. 그는 MS가 모 국내 대기업을 위해 연말 세금공제 수혜 봇을 만들어 활용토록 한 사례도 소개했다. 이 기업의 경우 매년초 아르바이트생 10명을 뽑아 연말정산에 대한 질문을 받아 응대토록 했지만 걸려오는 전화에 일일이 대응하지 못하자 챗봇을 통해 문제를 해결했다. 세무 Q&A 엑셀을 제공해 이 챗봇이 직원들의 질문에 응대토록 함으로써 업무 효율화를 실현한 사례였다. 김 부장은 한국어가 영어와 달리 챗봇을 실현하기 아주 어려운 언어여서 아직 완벽한 챗봇이 실현되지 못하고 있다고 말했다. (실제로 이날 연사들도 모두 이 부분에 대해 인정했다.)
두 번째 강연자로 나선 문상룡 KTDS 전무는 ‘콜센터에서 AI 컨택센터로:고객경험의 Transformation’이란 주제로 발표했다.
문 전무는 KTDS의 AI컨택센터 통합 솔루션인 '아이센트로(AICentro)'를 기반으로 KT컨택센터에서 이뤄지는 음성 ARS, 문자, 이메일 등을 스마트폰으로 보게 해주는 서비스가 진행되고 있다고 소개했다. 이를 KT AI스피커 기가지니를 통해서도 서비스를 준비하고 있다고도 밝혔다. 그는 AI컨택센터를 통해 컨택센터가 AI를 통해 셀프서비스 할 수 있는 부분은 극대화하면서 동시에 상담사는 회사에 가치있는 것을 고객에게 제시하는 등 가치있는 부분에 집중하게 될 것이라고 말했다. 또 여기서 가장 중요한 것은 안정적 인프라라고 강조했다. KTDS는 이날 AI플랫폼 아이센트로 채널을 다양화해 상담사들의 업무 부담을 줄이면서 만족도를 높였고 KT고객센터의 경우 청약서같은 서류 검증 업무 등 사람이 수작업하는 작업을 자동화. AI를 금융권에서 RPA(Robot Process Automation)솔루션을 이용, 기존 업무처리시스템과 연동해 자동화하고 있다고도 밝혔다. 그는 “KTDS는 AI기술을 상담사와 직원들의 만족도를 높이는데 사용하고 있다. AI기술이 도입되면 직업이 없어지고 인력재배치 우려가 있지만 오히려 직원들이 하는 일을 효율적으로 하게 만들어주는 부분이 더 크다. 이는 기업의 가치를 높여줄 것이다”라고 말했다.
세 번째 강연자로 나선 유태준 마인즈랩 대표는 ‘고객 접점 서비스의 미래, AI 컨택센터’라는 주제 강연을 통해 “AI센터 구축목표는 합리적 비용으로 효율을 5배 이상 올려야 하고, 사용자 주도형이 돼야 한다"며 "이 경우 AI로 손쉽게 환경변화에 대응할 수 있어야 한다”고 말했다.
그는 특히 AI 컨택센터 구축시 발전하는 기술을 얼마나 빠르게 담아 낼 것이냐에도 주목해야 한다고 강조했다. 유 대표는 “우리나라 엔진은 딥러닝으로 돌아가는 챗봇은 거의 없다고 보고 있다. 챗봇의 엔진들도 다양하게 추가할 수 있다. 단지 텍스트뿐 아니라 이미지 음성 처리할 수 있어야 한다. 사고지능, 레커멘데이터 등 새로운 엔진을 계속적으로 추가할 수 있어야 한다”며 레고블록을 조립하듯 이런 기능을 실현해 주는 자사의 ‘마인드AI’기반 솔루션을 소개했다. 그는 “엄밀하게 말해 국내 AI컨택센터 하면 롤베이스 컨택센터다. 대화 시나리오에 따라 만들어진 것은 인텐트클래시파이어를 만들어서 유사문장 처리해 놓는 게 현재 우리나라 챗봇수준이다. 문제는 아직까지 그 수준을 넘는 AI챗봇이 없다는 점이다”라고 진단하기도 했다. 유 대표는 AI컨택센터의 기술 진화와 관련, “엔진이 빠르게 진화하고 있다. 새로운 엔진들을 이식하고 업그레이드하고 유입되도록 해야 한다”고 강조했다.
이날 한솔인티큐즈 김한조 차장은 ‘차세대 고객경험 혁신을 위한 인공지능 컨택센터 플랫폼 'ISAC'’ 발표를 통해 AI와 휴먼 간 효율적인 협력체계 구현 필요성을 강조했다.
그는 자사의 ‘ISAC’이 고객과 상담원의 인게이지먼트를 극대화하여 최적의 고객경험을 이끌어 낸다고 설명했다. 또 향후 컨택센터에서 상담사는 AI로 대체돼 갈 것이라는 전망이 나오고 있지만 그렇게 쉽게 되기는 어려울 것으로 봤다. 그 이유로는 비대면 서비스증가(무인점포, 인터넷은행),모바일 비즈니스 강화, 온오프라인의 심리스한 경험 강조, 업무의 복잡성 증가, 업무 전문성 강조, 보다 신속하고 편리한 서비스 요구 등을 꼽았다. 김 차장은 “현재 국내 352개 금융사 가운데 26개사가 AI컨택센터를 도입하고 있고 내년에도 21개사에서 도입할 예정”이라고 소개하면서 “문제는 도입 때부터 지속적으로 학습시켜 줄 인적 자원이 있어야 한다는 점”이라고 지적했다. 또 “컨택센터 챗봇과 일반 챗봇은 분명 차별화되므로 기존 컨택센터를 최대한 활용해서 고객과 단절되지 않도록 할 필요가 있다”고 강조했다. 그는 AI챗봇 수준에 대해 “아직까지 한글은 자연어처리의 한계는 분명 있다. 인텐트 하나씩 처리하는 것은 가능하지만, 다중 인텐트 처리를 챗봇이 이해하기는 아직 어렵다”고 말했다. 그는 “챗봇은 이해력이 부족하다며 자연어 처리한계와 고객의 요구사항이 복잡 다양해 예측하지 못한 문제가 발생한다”며 “기업용 챗봇은 비즈니스 로직처럼 사람이 설계하고 개입해야 한다”고 말했다. 또한 대화 인터페이스의 한계성을 지적하면서 기술적 한계 극복방안에 대해 “데이터를 기반으로 하는 업무는 AI가 인간보다 앞설 수 있지만 고품질 심화상담 및 복잡한 맥락 감정에 대한 이해는 인간이 훨씬 뛰어나므로 기술이 아닌 서비스관점에서 통합운영 시스템을 구성해야 한다고 말했다. 한솔인티큐브는 실제 AICC ROI에 대해 10분이 하던 걸 5분이 하면 되는 정도로 예상한다. 그는 “아무리 뛰어난 상담사를 보유하고 있어도 양질의 데이터로 무장한 컨텍센터로 무장한 후발주자를 이길 수 없다”고 강조했다.
제네시스 코리아 윤준경 부장은 ‘AI 시대에 개인화 서비스를 위한 고객 인게이지먼트 전략’이란 제목으로 블렌디드AI라는 컨셉의 제네시스 플랫폼 ‘케이트(Kate)’, 그리고 최적화된 AICC의 방향에 대해 발표했다.
그는 AI컨택센터 도입이 활발해지고 있는 가운데 AI에 인격을 부여했다고 말할 수 있는 이른바 ‘블렌디드AI’ 컨셉의 ‘케이트(Kate)’ 플랫폼에 대해 설명했다. 그는 “제네시스의 ‘케이트’ 플랫폼이 타사의 대화엔진과 결합해서 사용할 수 있도록 해주는 AI엔진”이라고 소개했다. 윤 부장은 이날 애플 메시징앱, 그리고 네이버 라인을 AICC와 연계해 서비스하는 사용 사례도 소개했다. 그는 급변하는 솔루션 환경에서 설계된 AICC는 필요시 옴니채널 고객경험 플랫폼을 갖추고 나서 고객경험을 향상시킬 다양한 솔루션, 즉 셀프서비스 챗봇 등 다양한 솔루션을 도입해야 할 필요가 있다고 강조했다. 이어 “블렌디드 AI는 복잡한 인공지능(AI)과 인간을 자연스럽게 연결하고 상호 보완해 주면서 최적화시켜 주는 기술”이라고 설명했다. 이 플랫폼은 온라인상의 고객 사이트에 접속해서 고객 여정을 실시간 연결, 분류된 회로변화, 고객의 실시간 정보 등을 받아 머신러닝 기반 예측 데이터로 고객에 인게이지먼트해야 할 시점을 찾아낸다. 이를 통해 AI에게 ‘문제를 해결시켜 줄 담당자를 찾아줘’ ‘연결된 담당자에게 보고해 인게이지먼트해 줘’ 하는 방식을 제시하게 된다고 설명했다.
김명환 뉘앙스코리아 이사는 ‘AI 음성 어시스턴트 기반 커넥티드 솔루션과 고객경험’이란 제목의 발표를 통해 터치에서 음성으로 변화하면서 증가되는 음성 AI활용 진화 모습을 다양하게 소개했다.
그는 보이스 및 IVR(Interactive Voice Response)이 변화되는 방향에 대해 설명했다. 그는 “디지털로의 변화는 IVR 역할 변화를 요구하고 있다”며 “콜 볼륨은 그대로지만 IVR은 이제 주요 에스컬레이션 채널로서의 역할이 증대되고 있다”고 지적했다. 김 이사는 “이제 고객들은 IVR이 디지털처럼 동작하고 수행되기를 기대하고 있으며 고객의 90%는 채널과 디바이스를 통해 신속하고 쉽고 서로 연결된 경험들을 기대한다”고 말했다. 또 "AICC는 오는 2020년까지 AI기술과의 통합으로 뛰어난 경험을 제공하게 될 것이며 고객들의 40%는 어딜 가든지 AI 음성서비스를 받게 될 것"이라고 전망했다. 그는 “AICC는 인간과 AI가 공존해 가는 과정이며 AI목적은 자동화이기에 그런 서비스를 위해 사람처럼 기민하게 서비스해야 하고 훈련해야 한다”며 “뉘앙스는 컨버세이셔날 AI, 프리딕티브 애널리틱스, 로보틱스, 게임스 등을 연구개발하고 있다”고 소개했다. 그는 이날 뉘앙스의 자동차용 대화 AI플랫폼인 ‘드래곤 드라이브(Dragon Drive)’를 소개하기도 했다. 김이사는 “음성(의 중요성)은 인류가 존재하는 한 없어질 수 없다”면서 “향후 고객의 75%는 전화로 이슈를 해결하고 11%는 웹으로 해결하고 5%는 소셜미디어를 통해 해결하게 된다”고 말했다. 특히 “고객의 90%는 채널과 디바이스를 통해 신속하고 쉽고 서로 연결된 경험들을 원한다”고 강조했다.
이윤근 정보통신연구원(ETRI) 음성지능연구그룹장(책임연구원)은 이날 ‘대화형 AI 컨택센터 핵심기술 미래 전망’이란 제목으로 음성인식기술의 발전과 신기술 트렌드, 대화형 AI발전 전망에 대해 강연했다.
이 박사는 “AI기반 음성대화는 주제 제한 및 지식처리가 핵심인 골 오리엔티드(Goal oriented dialoge)와 챗 올리엔티드 대화(Chat oriented dialogue)를 통합 연구하는 방향으로 가는 게 대세”라고 소개했다. 그는 “기존의 골 오리엔티드 대화 시스템은 전문가의 수작업이 필요로 하며 도메인 확장성의 한계를 가지는 만큼 훈련시킬 수 있는 엔드투엔드 (E2E) 방식의 방법론을 필요로 한다”고 지적했다. E2E 방식의 대화시스템은 목적 함수를 직접 최적화하므로 이러한 단점을 극복할 수 있다는 설명이다. 기존의 대화시스템은 모듈방식이므로 모듈간 오류가 전이되는 단점을 보인다고도 말했다. 이에따라 새로운 기술 트렌드는 골 오리엔티드 대화와 챗오리엔티드 대화가 서로 대화하면서 스스로 학습하는 구조로 진화하게 될 것으로 보았다.
이 그룹장은 “최근 대화형 AI 기술은 AI 스피커, 음성인식 콜센터 등의 간단한 서비스를 넘어서 보다 전문적인 서비스, 자연스러운 인터페이스를 제공하는 방향으로 진화하고 있다. 현재 AICC의 기술 수준은 AI 음성비서 기반 스마트스피커 수준인데 AICC가 제대로 되려면 오류문제 해결하고 아키텍처 문제까지 해결해야 한다. 음성인식 시장 경쟁은 이제부터라고 할 시장이고 그만큼 시장 발전 가능성도 크다”고 전망했다. 그는 “요즘은 대화처리 음성인식 자동통역 등이 다 비슷한 아키텍처가 돼 가고 있다. 하나 잘하면 다 잘된다. 아직까지 모듈별로 개발했던 것에 비해 쓸 만한 게 안 나온다. 계산량은 많은데 성능은 좀 떨어진다. 이 기술이 필드에 들어가기까지는 별로 멀지 않아 보인다. 대화시스템도 E2E로 간다. 골오리엔티드 방식은 아직 딥러닝 적용이 안되고 있다. 이제 막 시작되고 있다. 도메인 확장성의 한계가 있지만 데이터로 훈련하는 방법으로 가자고 하는 게 트렌드다”라고 소개했다.
이 박사에 따르면 기존 날리지 베이스 시스템과 대화시스템을 어떻게 연동시켜야 하느냐도 풀어야 할 문제다. 그는 "연동시키려는 것은 좋은데 데이터를 어떻게 확보하느냐가 문제다. 가급적 데이터도 스스로 만드는 거 연구하고 있다"고도 설명했다. 이 박사는 강화처리 방식의 대화처리 모델에 대해서도 설명했다. 이에대해 “인간의 대화 인식은 알파고 같은 게임에서 사용되던 이기면 그걸 채택하는 보상 (reward)모델과 다르다. 대화는 갈수록 향상되지만 논쟁을 끝내기 쉽지 않은 것처럼 이 모델로 대화가 끝까지 갈수는 없고 게임처럼 명확치도 않다. 그래서 리워드 모델이 관건이다. 다만 게임처럼 단순치 않다”고 설명했다.
이날 행사에서는 단순한 솔루션 및 시스템에 대한 기술과 경험 외에 특히 AI기반 데이터용량 처리를 위한 최적의 하드웨어 아키텍처 구축 중요성에 대한 강연도 이어졌다.
유충근 HPE상무는 ’Virtual Assistant(가상비서) 환경 구축을 위한 IT 아키텍처‘란 제하의 강연을 통해 AI기반 시스템 구축시 시스템 데이터 처리 최적화를 위한 HW와 SW의 효율적 조합에 대해 설명하고 솔루션도 제시했다.
그는 ’음성과 텍스트 기반의 가상비서(Virtual Assistants) 환경 구축을 위해서는 AI 모델 구축을 위한 GPU 클러스터 시스템과 STT(Speech To Text) 및 TTS(Text to Speech), 데이터 분석 시스템 등에 대한 구축이 필수적‘이라고 강조했다. 또 가상비서 환경 4대 구성요소를 입력 인터페이스, 출력인터페이스, 프로세싱 데이터 분석, 답변준비, AI모델로 구분했다. 유 상무는 특히 가상비서환경 IT 시스템에서 아키텍처를 구성할 때 “기존의 대형 서비스 시스템은 높은 상호 의존성 구조를 가지고 있어 AI 기반 시스템 증설시 동일한 구조를 그대로 유지하게 되면서 민첩한 변화에 대응하기 곤란하다”는 점을 지적했다. 이어 “대안으로 마이크로서비스아키텍처(MSA)로 애플리케이션 아키텍처를 구축하는 것이 바람직하다”고 설명했다. 애플리케이션을 거대 단일 구조에서 마이크로서비스 구조로 변경할 경우 컨테이셔 효익을 극대화할 수 있다는 얘기다. 모든 것을 스케일아웃할 수 있고 애플리케이션 바뀔 때마다 발생하는 연동성 문제도 해결할 수 있다고 덧붙였다. 그는 또한 퍼블릭클라우드, 클라우드28+, 그리고 HPE의 플렉서블 커패시티(Flexible Capacity)솔루션을 활용할 경우, 내부 IT환경에서 필요할 경우에만 가동함으로써 기업들이 사용량 기반으로 IT자원을 소비할 수 있게 해준다고 소개했다.
퓨어스토리지 노용신 부장은 ‘The first AI Ready Infrastructure, AIRI’라는 주제의 발표를 통해 SW 2.0시대를 맞이해 AI와 데이터의 연관성을 강조했다. 또 왜 자사 스토리지가 AI시스템 구축에 결정적 역할을 하는지 설명했다.
노 부장은 AI시스템 구축 주변 환경에 대해 “심층신경망(Deep Neural Network) 복잡성이 증가하고 실제 세상의 AI가 날로 복잡한 데이터를 처리하게 된다”고 설명했다. 또 이를 해결할 주요 수단인 하드웨어 스트로지로 자사의 ‘에이리(AIRI)’를 소개했다. 이 기기는 퓨어스토리지와 GPU 선두업체인 엔비디아가 함께 설계했다. 퓨어스토리지의 플래시블레이드와 엔비디아의 DGX서버 기반으로 구동되는 통합 기기다. 기업이 요구하는 다양한 AI 요구조건을 만족시키면서 간단히 구현된다. 100% NVMe 방식이다. NVMe는 PCIe 인터페이스 기반 저장장치용 통신규격으로서 SATA인터페이스 대비 최대 6배 이상의 속도를 낼 수 있어 초고속, 대용량 데이터 처리에 적합하다. 노 부장은 AIRI가 버추얼 컨트롤 파티셔닝 구조를 가지고 있는 등 복잡한 AI기반 산출물을 내놓는데 있어서 효율적이라고 말했다. 특히 GPU 기반의 완벽한 병렬연산 처리 기반에다 멀티노드 학습에 적합하도록 만들어졌다는 점에서 AI의 학습과 관련 산출물을 내놓는데 효율적이라고 강조했다.
한컴MDS 고영화 부장은 ‘AI 기반 차세대 컨택센터 고효율음성인식 학습시스템 구축방안’이란 제목으로 발표했다.
그는 엔드투엔드 AI 솔루션의 발전과정에서 엔비디아 DGX-2의 사례를 통해 병렬처리 기반 연산을 하는 GPU기반 시스템이 CPU기반 시스템에 비해 얼마나 월등하게 AI데이터 처리를 할 수 있는지를 거듭 강조해 보여주었다. 그는 AI시스템이 단순한 데이터나 패턴 분류 수준에서 의미까지 인지할 수 있게 발전하면서 고객 대응 수준도 향상돼야 한다고 설명했다. 이어 AI를 현지목적에 부합하도록 학습할 필요가 발생할 때 고성능 GPU기반 학습환경이 필요하다면서 이를 최적화할 HW 환경으로 엔비디아의 DGX-2,DGX-1.DGX-스테이션 등을 추천했다.
이재구 (jklee@etnews.com)
사진촬영지원 : 소니코리아