일본 총무성이 인공지능(AI)에 정부 인증제도를 도입한다. 미국에서 구글이나 마이크로소프트(MS) 등 IT 대기업이 자발적으로 AI 윤리기준을 만드는 움직임은 있었지만 정부 차원에서 인증제도를 도입하는 것은 이번이 처음이다.
◇日 총무성, AI 인증제도 도입
일본 니혼게이자이신문은 지난달 31일 총무성이 기업체가 개발하는 AI 안전성과 보안성을 평가하는 공적 인증제도를 운용할 계획이라고 보도했다. 문명의 이기이자 `양날의 검`인 AI가 인간에게 가하는 위협요소를 최소화하려는 목적이다.
일본 정부는 인증제도 도입으로 AI 사용자와 개발자 책임범위를 명확히 하고, 안전을 담보해 AI 개발과 보급을 촉진할 방침이다. 평가는 정부가 아닌 제3의 기관에서 담당한다.
현재 AI 연구개발과 관련한 특별한 규제나 지침은 없지만 일본 총무성에 설치할 전문가 회의에서 상반기 중 연구개발지침을 설정할 계획이다. 2018년 법개정과 함께 공적인증 제도를 개시한다는 목표다. 인증대상은 IBM `왓슨`과 같은 컴퓨터부터 이러한 컴퓨터를 탑재한 로봇까지 광범위하다.
사이버 공격을 받아도 쉽게 조작하거나 정보를 탈취할 수 없도록 보안조치 외에 사생활 보호를 위해 개인정보 취득 제한과 익명화 조치도 필요하다.
◇AI 개발자·사용자 책임범위 규정
AI 개발자와 사용자도 책임범위도 명확히 했다. 인간에게 위해를 가할 수 있는 성능 개발과, 사용자의 잘못된 학습으로 인한 오남용을 막기 위해서다.
공적 인증에 따르면 개발자는 불필요할 정도로 강력한 모터를 탑재해서는 안 되는 등 오작동으로 인한 피해규모를 최소화해야 한다. 개발자는 사고가 발생하면 가능한 범위에서 AI 판단이나 작동 이유를 설명해야 한다는 내용도 포함됐다.
총무성은 또 법조계와 논의해 안정성 높은 AI를 사용할 경우 이용자 책임을 제한하는 특별법도 준비한다. 로봇이 사람을 해치는 사건 등에서 사용자 책임을 최소화하는 장치 등이 대표적이다. 다만 AI가 인간에 의해 학습되는 이상, 사용자도 일정한 책임을 질 수 있다. 지난해 3월 MS가 선보인 AI 채팅봇 서비스 `테이`가 막말 파문으로 서비스가 하루 만에 중단된 것도 일부 트위터 이용자가 끊임없이 주입한 편파적 발언의 여파였다. 인간과 대화를 통해 스스로 학습하고 진화하는 특성을 악용한 결과다.
이밖에 공적인증을 취득한 개발회사가 과도한 책임을 지지 않도록 새로운 배상책임 보험제도 창설도 검토한다. 정부나 지방자치단체 등이 AI를 도입할 경우 공적인증을 받은 AI가 입찰에서 유리한 위치를 점하는 기준도 설정할 예정이다.
※상세 내용은 IP노믹스 홈페이지(www.ipnomics.co.kr )에서 확인할 수 있습니다.
신명진 IP노믹스 기자 mjshin@etnews.com