일, 인공지능 인증제 실시…사고시 책임범위 명시화

일본 정부가 인공지능(AI) 안전성과 정보 보안을 위한 인증제 도입을 추진한다.

2일 니혼게이자이신문에 따르면 총무성은 전문가 회의에서 올해 여름 AI 연구개발 지침을 마련한 뒤 2018년 이후 법 개정 작업을 거쳐 안전성과 보안 등을 평가하는 공적 인증제도를 운용할 방침이다.

이는 AI 관련 사고 시 이용자와 개발사 등의 책임 범위를 명확히 하기 위한 것으로, 인증은 정부가 아닌 제3의 기관이 판단하는 방향으로 검토하고 있다.

일, 인공지능 인증제 실시…사고시 책임범위 명시화

최근 AI 연구 내용이 급속히 발전했지만 이와 관련한 특별한 규제나 지침은 없다. 만약 AI가 제어 불가능한 상황이 된다면 사람에게 위해를 가하거나 중요한 정보가 누설될 가능성이 우려되고 있다고 신문은 전했다.

총무성은 IBM의 인공지능 슈퍼컴퓨터 `왓슨`과 같은 컴퓨터나 이를 탑재한 로봇 등을 인증 대상으로 검토할 계획이다. 인증을 받으려면 AI를 반드시 사람이 제어할 수 있는가가 관건이 된다. 비상시에 그 기능을 정지하거나 수정할 수 있어야 하며 사이버 공격을 받을 시 정보가 빠져나가지 않도록 고난도 보안이 요구될 것으로 보인다.

정부는 제3 기관에서 AI 안전성과 보안 정도를 평가하도록 하고 AI 이용이 확산하는 경우에 대비해 새 배상책임제도도 추진할 예정이다.

권상희기자 shkwon@etnews.com