“다시 묻습니다. 여러분의 두뇌는 공정합니까. 답변을 듣기 전에 가까운 미래로 갑니다.” 미국 뉴욕경찰은 살인사건이 발생하자 범인예측프로그램 'AI폴리스'에 의견을 구했다.
AI폴리스는 최근 5년 동안 해당 지역 범죄데이터, 언론·인터넷 게시물, 피해자 및 사건현장 데이터를 수집·분석해서 용의자를 '30세, 폭력전과, 흑인 남성'으로 좁혔다.
경찰관 존은 사건 현장 근처에서 비슷한 사람을 발견하고 주먹다짐 끝에 체포했다. 그러나 진범은 '50세, 마약전과, 아시아계 남성'으로 밝혀졌다. 존은 폭행죄 책임을 져야 할까. 정답은 없다. AI폴리스의 정확성이 이 정도라면 결과물은 참고사항에 그쳐야 한다. 존은 폭행죄 책임을 진다는 데 한 표를 던진다. 하나 더. AI폴리스는 30세 젊은 사람, 폭력전과자, 흑인을 차별했기 때문에 폐기해야 될까. 그건 아니다. 이건 업데이트 문제다.
인공지능(AI)은 사람의 정신활동까지 대신하게 되고, AI알고리즘은 AI의 두뇌다. 사람처럼 옳은 일을 할 수 있고 나쁜 일도 할 수 있다. AI가 법을 위반하면 서비스 제공 기업을 처벌할 수 있다. AI알고리즘이 알아서 했고 나는 몰랐다는 핑계는 통하지 않는다. 개가 주인 모르게 사람을 물어도 주인이 책임을 져야 한다.
그러나 AI가 공정하지 못한 데이터를 투입 또는 생산했다는 이유만으로 처벌할 수는 없다. 공정하지 못함은 편향됨을 말한다. 연령, 성별, 인종, 경제적 수준, 문화적 배경, 종교 등을 이유로 우대하거나 차별하는 것이다. 개별 데이터는 진실·거짓 확인이 어렵다. 특정 데이터가 많다고 진실한 것도 아니다. 질적 수준과 양적 규모도 제각각이다. 저작권, 개인정보, 영업비밀 등 제약이 있어서 쓸 수 없는 데이터도 많다. 이런 저런 이유로 데이터는 자연스럽게 편향성을 띤다. AI알고리즘도 마찬가지다. 기업은 모든 고객에게 똑같이 봉사할 수 없다. 수익모델을 만들고 대상 고객을 정하기 때문에 당연히 편향성을 띤다. AI알고리즘 학습방법은 머신러닝, 딥러닝이기 때문에 작동 과정도 알 수 없다. 데이터와 AI알고리즘 편향성 자체가 문제라고 한다면 데이터 산업과 AI 산업은 접어야 한다.
그렇다. 데이터 수집·분류·결합·이용과 AI알고리즘 작동은 기업과 개인의 창의 영역에 속한다. 편향됐다는 이유만으로 처벌할 수 없다. 그러나 데이터·AI 기업에 면죄부를 주자는 것은 아니다. AI알고리즘을 통과하고 나와 고객을 만난 결과물이 현행법을 위반하면 법적 책임을 져야 한다.
AI 결과물이 명예를 훼손하거나 기타 범죄를 저지르는 등 생명·신체·재산상의 안전을 위협한다면 당연히 해당 기업을 처벌해야 한다. 데이터 수집·이용과 AI알고리즘 제작 과정이 개인정보보호법, 신용정보법, 저작권법, 부정경쟁방지 및 영업비밀보호법, 특허법 등 지켜야 할 법을 위반한 경우도 처벌 대상이다.
현행법을 위반하지 않지만 생명·신체의 안전을 위협할 수 있다면 어떻게 해야 할까. 안전조치 등 기술 규제를 도입해야 한다. 기술 규제로 해결할 수 없는 경우에는 진입 규제를 고민해야 한다. 반면에 현행법을 위반하는 경우에도 실질적인 폐해가 없고 데이터 산업과 AI 산업 발전에 필요하다면 규제를 과감하게 도려내야 한다.
막연히 데이터, AI알고리즘 편향성을 줄이거나 공정성을 확보하자는 논의는 공허함을 넘어 기업·개인의 창의력을 위축시킨다. 명백한 범죄 혐의가 발견되지 않은 기업에 일상적 AI알고리즘 제출, 공개 의무나 AI알고리즘 수정, 삭제, 변경의무 부과는 미래 한국의 발목을 잡는다. AI 기술과 서비스 수준이 높은 단계에 올라 있는 선진국의 규제 논의를 무턱대고 받아들이는 것도 반대하고 싶다. 우리 국민을 외국 기업 소비자로 만들 뿐이다. 외국 기업에 종속되는 미래를 후손에게 물려줄 수는 없다.
이상직 법무법인 태평양 변호사(AI-IP특별전문위원회 위원장) sangjik.lee@bkl.co.kr