인도네시아 발리에는 긴꼬리마카크 원숭이가 살고 있다. 관광객의 머리핀, 모자를 훔쳐봐야 웃고 지나갈 뿐이다. 카메라, 휴대폰, 지갑, 안경 등 비싼 것을 노린다. 그래야 음식 등 충분한 보상을 받을 수 있다. 캐나다 심리학자 장바티스트 레카 교수의 연구다. 인공지능 범죄는 어떨까. 원숭이보다 교묘하다. 기존 범죄를 고도화하고 새로운 범죄를 만들 수 있다.
사례를 보자. 2016년 중국 첨단기술 전시회에서 로봇이 유리창을 깨뜨려 관람객을 다치게 했다. 1981년 일본 오토바이 공장의 로봇은 자신의 업무를 방해한다며 직원을 기계 안으로 밀어 넣었다. 인공지능을 이용해 자동으로 만든 글이 사람의 명예를 훼손한다. 타인의 저작물을 마음대로 학습해서 창작물을 만든다. 온라인에서 수집한 문장, 영상, 음성을 조합해 피해자 가족을 납치한 것처럼 꾸며서 금품을 뺏는다. 자동으로 표적을 쏘는 인공지능을 이용해 게임 사이트에서 상금을 탄다.
인공지능 범죄의 특징은 어떨까? 범죄 대상을 정교하게 선정하고 감쪽같은 속임수로 해를 가한다. 데이터 수집, 이용, 가공, 결합, 분석을 통해 수많은 피해자를 대상으로 하면서도 짧은 시간에 범죄를 끝낸다. SNS, 인터넷, 해킹, 유출 데이터를 결합·분석해서 고액자산가나 기업대표 등 특정인을 범죄 대상으로 할 수 있다. 똑똑해도 속는다. 고위임원의 음성, 영상, 글의 형태 등을 분석해 부하직원에게 접근하면 불안해서라도 당한다. 공신력 있는 공문서, 사문서를 정교하게 위조한다. 수사기관과 금융당국 사칭 등 복잡한 범죄 구조를 쉽게 만든다. 원격으로 이뤄지는 범죄라면 피해금품을 돌려받기 어렵다. 범죄자 자신도 인공지능이 어떻게 작동하는지 알지 못하고, 인공지능을 조작하고 파괴해서 증거를 없애면 범죄를 입증하기 쉽지 않다.
인공지능 범죄를 막을 수 있을까? 범죄 유형·방식이 인공지능에 의해 자동적으로 이뤄진다면 인간에게 형사책임을 물을 수 있을까? 고의를 인정할 수 있을까? 쉽지 않다. 범죄가 자동 실행되도록 설정해서 작동 버튼을 누른 행위를 처벌해야 하지 않을까? 인공지능 시스템을 제공한 행위가 범죄 교사 또는 방조가 될 수 있을까? 범행을 목적으로 했다면 죄가 될 수 있다. 과실범을 처벌할 수 있을까? 인공지능을 이용했다는 것만으로 과실이 있다고 볼 수는 없다. 안전조치의무를 위반해야 과실을 인정할 수 있다. 여러 기업이 자신의 인공지능 시스템을 연결·운영하면서 범죄를 저지르면 공동정범으로 처벌할 수 있다.
현행법으로 충분할까? 인공지능을 이용해 테러했다면 어떨까. 인공지능을 이용한 범죄는 처벌의 필요성이 있지만 형법을 적용하기 쉽지 않은 경우도 있다. 드론이 고층아파트 창문으로 들어가면 주거침입죄가 될까? 대법원 판례는 신체의 전부가 들어가지 않더라도 일부가 들어간 경우 주거침입죄를 인정한다. 그렇지만 사람의 몸이 들어가지 않고 드론이 침입하면 주거침입죄가 되지 않을 수 있다. 현행법만으로 해결이 쉽지 않다.
입법에 반영할 사항은 있을까? 인공지능을 범죄 기획·설계에 따라 설치·작동시키는 행위 자체를 금지하는 입법을 검토해야 한다. 죄질이 나쁘고 피해가 큰 경우에는 가중 처벌해야 한다. 범죄에 사용된 인공지능 시스템(HW, SW, OS, 단말기기, 네트워크 등)의 전부 또는 일부의 몰수, 폐기, 사용중단 등 조치를 할 수 있는 입법도 검토하자. 인공지능을 소유·활용하는 자에게 안전조치의무를 부여하고 위반하면 처벌하자. 범죄예방시스템 구축도 중요하다. 기업의 자율규제, 교육, 범죄징후 확인시스템, 피해자 경고시스템 등 면밀한 검토가 필요하다. 인공지능 범죄를 막지 못하면 미래는 희망에서 절망이 된다.
이상직 법무법인 태평양 변호사('나는 인공지능을 변호한다' 저자) sangjik.lee@bkl.co.kr