일본 연구팀이 다른 인공지능(AI)을 이용해 얼굴인식 AI가 진짜로 인식하는 데이터를 재현하는데 성공했다. 제3자가 AI 기술을 이용해 안면인식 AI를 완벽하게 속일 수 있음을 보여준 결과다.
일본 NHK에 따르면 쓰쿠바(筑波)대학 인공지능과학센터 사쿠마 준 교수팀은 특정인의 얼굴을 학습한 AI를 다른 AI로 공격해 학습한 얼굴을 유추하게 하는 실험을 했다.
공격 측 AI는 적당한 화상을 만들어 공격대상 AI에게 보여줘 공격대상 AI가 학습한 사람의 얼굴과 어느 정도 닮았다고 인식하는지 파악했다. 이렇게 파악한 정보를 토대로 공격대상 AI가 학습한 진짜 얼굴을 유추해 더 많이 닮은 화상을 만드는 과정을 고속으로 반복했다.
공격 측이 만든 화상은 처음에는 아무 의미를 갖지 못했지만 진짜를 유추해 다시 만드는 과정을 반복하는 사이에 공격대상 AI가 학습한 진짜 얼굴과 급속도로 닮아갔다. 이틀 후에는 공격대상 AI도 학습한 본인으로 인식하는 수준에 도달했다.
연구팀은 일반적으로 AI 프로그램을 공격 측이 알아내기 어렵기 때문에 당장 악용되지는 않겠지만 누군가 AI를 해킹하면 본인 안면을 재현해 낼 수 있어 장차 안면인증 보안체계가 뚫릴 우려가 있다고 경고했다.
사쿠마 교수는 “지금까지 AI 개발에서는 학습한 데이터를 제3자가 볼 수 있다는 사실은 고려하지 않았다”고 지적했다. 또 “데이터에는 기업의 비공개 정보와 개인의 안면 등도 들어있기 때문에 정보가 누설될 위험에 대비해야 한다”고 강조했다.
인공지능을 이용한 화상인식 기술은 생활주변에서 이미 활용되고 있다. 애플의 최신 스마트폰 '아이폰Ⅹ'은 AI로 얼굴을 인식해 소유자 외에는 잠금장치를 해제하지 못하게 하는 기능을 탑재했다.
미국 햄버거체인도 AI가 안면을 인식해 해당 고객의 구입이력 등을 토대로 추천상품을 제시하거나 자동결제가 이뤄지는 실험을 하고 있다.
이 외에 AI 화상인식 기술은 자율주행 자동차가 장애물과 위험물을 파악하거나 질병 진단을 지원하는 등 다양한 분야에 응용이 가능할 것으로 기대되고 있다.
사쿠마 교수는 AI 프로그램이 공격자의 손에 넘어가면 소유자의 얼굴이 알려져 개인정보 보호 등이 문제가 될 수 있다고 지적했다. 제3자가 본인으로 가장해 안면인증을 돌파하면 해당 기기를 자유자재로 조작할 수 있어 보안상 중대한 문제가 초래될 우려가 있다.
사쿠마 교수는 이번 실험은 여러가지 다양한 조건에서 이뤄졌기 때문에 당장 악용될 위험은 크지 않지만 만일의 경우에 대비해 대책을 마련할 필요가 있다고 말했다.
배옥진기자 withok@etnews.com
-
배옥진 기자기사 더보기