직장에선 물론이고 친목모임에서조차 뜻대로 되지 않는 일이 대부분이다. 말하는 중간에 끊고 반박하는 사람도 있고, 드러내놓고 어깃장을 놓는 사람도 있다. 이럴 때면, 내 말을 듣고 위안을 줄 친구나 연인같은 누군가 있으면 좋겠다고 생각해 본 적이 있을 것이다.
'당신의 첫 인공지능(AI) 친구'를 표방한 AI 챗봇 '이루다'가 20여일 만에 서비스를 잠정 중단했다. 지난 2016년 마이크로소프트(MS)가 내놓은 AI 챗봇 '테이'는 16시간 만에 중단됐다. 이유는 별반 차이가 없다. 동성애·장애인·여성 차별 등 발언을 했다는 것이다.
지난 칼럼에서 AI 알고리즘은 정보통신망법 등 관계 법령이 정하는 바에 따라 인종, 사회 지위, 성향, 경제력의 크기, 성별 등을 이유로 부당하게 사람을 차별할 수 없는 규범 통제 아래에 있음을 전제하고 차별이 발생하는 원인과 해결 방안을 제시했다. 오늘은 이를 전제로 이루다가 우리에게 던지는 몇 가지 고민에 대해 말하고자 한다.
첫째 AI 시장에서 기업과 고객의 자정능력이 제대로 작동하고 있는가. 과거 인터넷이 발달하며 가장 먼저 문제가 된 것이 음란물과 도박 사이트였다. 회원 중심으로 비밀리에 이뤄지다 보니 모니터링을 통한 차단이 쉽지 않았고, 자율규제나 자정 기능이 발휘되지 못했다. 그러나 지금은 어떠한가. 법률 규제 이전에 윤리 문제가 논의되는 분야는 의료, 로봇, 자율주행 등 국민의 생명·신체·안전에 중대한 영향을 미치는 것들이다. 과학기술정보통신부는 지난해 12월 AI윤리기준을 발표, 사람 중심 AI를 선언하면서 가치중립성 확보 등 국민의 경각심을 일깨웠다. 이루다 서비스에서는 물론 고객 가운데 이루다를 성희롱하거나 편향된 발언을 유도하는 등 방법으로 이용하는 경우가 있는 반면에 이러한 문제를 인식하고 조기에 이슈 제기를 한 고객이 더 많았다. 시민단체도 즉시 가세, 이루다의 AI 알고리즘을 비판했다. 이루다 측은 서비스 출시로부터 20여일밖에 안 되는 짧은 기간에 서비스 잠정 중단이라는 결정을 내렸다. 이루다 사건을 지켜본 카카오 등 인터넷 기업은 자체 윤리 기준을 대외에 선언하고 자정을 결의했다. 그렇다면 분명히 큰 틀에서 보면 AI에 관한 고객과 기업 자체의 자정능력이 있고, 분명히 자정기능이 작동하고 있다.
둘째 이루다가 가져온 문제가 데이터, AI 기반으로 하는 미래로 가는 길을 포기하거나 제약해야 하는 정도에 이르는 것인가. 이루다가 던진 질문은 우리가 전혀 예상하지 못한 것이 아니다. AI 알고리즘 목적이나 원리상 AI가 작동하는 단계별 부분이나 결과 값까지 미리 알기 어려웠을 뿐이다. 이루다와 같은 문제가 발생하는 것은 업체 스스로 적절한 규범 통제 수단을 알고리즘화하고, 지속 감시와 견제를 통해 해결할 수 있다. 우리가 AI를 포기하면 미국과 중국 AI 기업에 예속될 것이다. AI는 글로벌 경쟁사회에서 우리가 살아남기 위해 반드시 성장시켜야 할 산업 분야이고, 이루다는 규범 통제를 거쳐 다시 시장에 나와야 한다. 이루다 잠정 중단에 아쉬워하는 많은 고객의 목소리를 잊지 말자.
셋째 AI 시대에 인간의 규범을 고양할 수 있는 방법은 없는가. 현재까지 새로운 산업의 출현에 대한 접근 방법은 정부가 법령이나 가이드라인을 만들고 기업으로 하여금 지키도록 하는 것이었고, 상당한 기간 효력을 발휘했다고 할 수 있다. 그러나 AI를 기반으로 하는 미래 사회는 AI의 작동이 딥러닝 기반을 통해 학습한 결과를 표출하는 것이어서 사후 처벌에 중점을 두는 기존의 접근 방법이 효력을 발휘하기 어렵다. 결국은 현장 중심의 자정능력을 높이고 자정 기능을 작동시키는 규제 시스템이 중요하다. AI 발전의 관건은 기업이 서비스 기획 단계부터 고객 및 약자 보호 기능 설계, 단계별 필터링, 고객의 목소리를 직접 듣는 고객위원회 설치 등 스스로 가치중립성을 확보해서 사회 책임을 다하게 하고 고객과 시민단체의 설명 요구 상시화와 함께 이의제기 등 견제 시스템을 가동하는 것이다.
이상직 법무법인 태평양 변호사 (AI-지식재산 특별전문위원회 위원장) sangjik.lee@bkl.co.kr