인공지능(AI) 챗봇 '이루다'가 성차별 발언 및 개인정보 유출 의혹 등으로 12일 서비스를 중단했다. 작년 12월 23일 서비스를 시작한 지 20일 만이다. 이루다 사건은 개발사에 대한 조사와 동시에 우리 사회에 AI 윤리와 거버넌스 필요성을 제기했다.
고학수 한국인공지능법학회장(서울대 로스쿨 교수)은 18일 “이번 문제는 우리 일상생활에 본격적으로 AI가 들어오면서 생겨난 일”이라며 “그동안 기업이나 개발자들 차원에서 새로운 서비스 또는 기술을 추진할 때 진지하게 검토하지 않았던 법, 윤리, 철학이 사실은 (서비스 개발과) 뗄 수 없는 문제라는 것을 알려준 일”이라고 지적했다.
고 회장은 이번 일을 서비스 중단이나 처벌 차원이 아닌 연구와 논의의 출발점으로 삼아야한다고 강조했다. 그는 서울대AI연구원의 부원장을 맡아 AI정책·제도 연구도 하고 있다.
고 회장은 “AI 챗봇을 무조건 폐기하거나 제재하는 데서 논란을 마무리해선 안 된다”면서 “사회적 맥락과 일상생활에서 AI 윤리규정을 어떻게 만들지, 수집된 데이터를 어떻게 보정해야하는 지 등의 연구와 논의가 지속 필요하다”고 말했다. 여기에 기업, 학계, 연구기관이 모두 참여해야 한다고 덧붙였다.
고 회장은 이미 해외에선 AI 윤리 관련 논문이 '쏟아져 나온다'라고 표현할 정도로 활발하게 전개되고 있다고 지적했다. 하지만 해외와 비교하면 국내는 AI 윤리 관련 논문이 겨우 20~30건으로 미미한 수준이다. AI 편향성이나 데이터 공정성에 대한 연구는 아직 시작 단계다.
고 회장은 과학기술정보통신부에서 지난해 말 내놓은 국가 인공지능 윤리기준안이 '추상적'이라고 지적했다. 윤리기준안은 바람직한 AI 개발 활용 방향을 제시하기 위해 '인간성'을 최고가치로 둔 3대 기본원칙과 10대 핵심요건을 제시하고 있다. 카카오와 삼성전자에서도 자체적으로 AI 윤리 가이드라인을 발표했다. 이러한 대응 대부분이 '좋은 이야기' 수준이라 아쉽다는 반응이다.
유럽연합(EU)은 몇년 전 AI 윤리기준을 발표하고 지난해 AI 백서에서 수 십 페이지에 걸쳐 구체적 가이드라인을 내놓았다. 특히 단순 제재가 아니라 시스템 개발자에 대한 법적 윤리적 규범 마련을 위한 방안을 다양하게 담았다. 자발적 라벨링 체계를 통해 시스템 안정성을 보장하고 자율 규제 방안을 제시했다.
글로벌 기업도 AI 윤리 기준 마련이나 데이터 이용 문제에서 난관에 부딪히기도 했다. 구글은 2019년 AI 윤리 문제 등을 다룰 첨단기술외부자문위원회를 만들었다가 구성원 문제로 출범 일주일만에 백지화하기도 했다. 지난해에는 캐나다 토론토에 추진하려고 했던 스마트시티 계획을 포기하기도 했다. 주민 데이터 활용 계획이 모호하다며 반대 목소리가 높았다.
최근에는 AI 기반 얼굴인식 솔루션이 확산되고 데이터 편향성과 오류 문제가 지적되면서 글로벌 기업을 중심으로 얼굴인식 솔루션 사용 및 판매가 중단되기도 했다.
고 회장은 “MS도 AI 챗봇인 테이의 실패 이후 AI 윤리에 대한 관심이 크게 높아졌다”면서 “글로벌 기업들도 외부 전문가 및 자문기구와 이 문제로 협력을 공고히 하고 있다”고 말했다.
서울대의 경우 서울대 AI정책이니셔티브와 네이버가 공동으로 내달 중순 AI 윤리 관련 공개 웹세미나를 개최할 예정이다. 네이버가 만드는 첫 AI윤리 관련 막바지 작업의 일환이다.
고 회장은 “기업이나 개발자의 경우 새로운 시스템 개발 처음에는 기술적이고 기능적 부분에 집중하기 마련”이라며 “데이터 편향성이나 AI 윤리같은 문제에 대해 개발 프로세스 단계에서 적절하게 고민할 수 있는 거버넌스나 세밀한 적용사례가 필요하다”고 강조했다.
김명희기자 noprint@etnews.com