빠른 속도로 인공지능(AI)이 발전하면서 사용자에게는 더 없이 편리한 기능과 새로운 가치를 제공하고 있다. 한편에서는 AI 오남용을 걱정하면서 개발 자제와 보완책을 마련하는 움직임이 활발하다. 작년 11월 한국, 미국, 영국을 포함한 11개국 정상이 참가한 'AI 정상회의'가 영국에서 개최됐다. 지난달에는 서울에서 개최돼 지속가능한 AI 발전과 AI 안전 역량 강화 방안 등이 논의됐다.
오픈AI의 공동 창업자이자 최고 기술책임자인 슈츠케버와 라이케는 AI의 빠른 발전에 대한 우려를 표명했다. 특히 안전성과 사회적 영향 분석에 더 많은 초점을 맞춰야 한다고 강조했다. 오픈AI가 '안전을 최우선으로 하는 AI 회사'가 되어야 한다고 주장하면서 회사를 떠났다.
더군다나 최근 미국 조지아대와 샌디에고대에서 각각 실시한 기계가 인간과 구별할 수 없을 정도로 대화가 가능한지를 판단하는 시험인 튜링 테스트에서 '챗GPT-4'가 인간 답변보다 훨씬 뛰어나다는 평가를 받으면서 AI가 인간과 구분이 불가능한 수준에 도달했다고 밝혔다. 결국 AI는 눈부시게 발전해 10년 이내에 인간의 지적 능력을 훨씬 뛰어 넘는 초지능 AI(ASI·Artificial Super Intelligence)가 등장할 것이라는 전망을 뒷받침한다.
최근 많은 기업에서 생성형 AI(이하 AI) 활용을 추진하고 있으나, AI가 내 놓은 답이 할루시네이션(환각증상)에 의해 진위여부 판단이 어려운 점, 기업 정보가 유출되는 보안 문제, 해킹 문제 등이 위험 요인으로 지적된다.
첫째, 사람 얼굴이나 목소리를 정교하게 모방하는 '딥페이크(Deep fake)' 기술을 이용한 가짜 영상이나 음성 제작은 개인 명예를 훼손하고 금전적 피해를 입힐 수 있는 공격 도구로 악용되고 있다. 유명 정치인의 가짜 연설 영상으로 여론을 조작하거나, 기업 임원 목소리를 모방해 송금을 지시하는 사례가 발생하기도 했다. 둘째, 해커가 자율주행차 제어 시스템을 장악한다면, 사고를 유발하거나 특정 대상을 공격하는 등 심각한 피해를 입힐 수 있다. 미국에서는 자율주행차의 위성항법장치(GPS) 시스템을 해킹해 특정 방향으로 조종하는 실험이 성공적으로 이뤄진 바 있다.
셋째, 스마트 홈 기기, 웨어러블 기기 등 사물인터넷(IoT) 기기는 우리 삶의 편리성을 높이지만, 동시에 해킹 공격 대상이 되기 쉽다. 해커는 이러한 기기로 개인정보를 탈취하거나, 기기를 조종해 화재나 폭발 사고를 일으킬 수 있다. 실제로 스마트홈 기기를 해킹해 문을 열고 물건을 훔치거나, 보안 카메라를 조작해 개인정보를 촬영하는 사례가 발생했다. 넷째, 공장 제어 시스템을 해킹해 생산라인을 조작하거나 유해 물질을 과다하게 첨가하는 등 공격은 심각한 사고로 이어질 수 있다. 자동차 공장 제어 시스템을 해킹해 엔진 출력을 조작하는 사건이 발생하기도 했다. 다섯째, 국방 시스템은 국가 안보 핵심 요소이지만 군사 시스템을 해킹해 공격을 유도하거나, 국가 기밀 정보를 탈취하는 등 행위를 저지를 수 있다.
특히 매일 사용하는 메일, 문자, 사회관계망서비스(SNS)에 AI를 활용한 더욱 정교해진 피싱, 스캔, 바이러스 공격 등이 가해지면 첫째, 기업 정보, 고객 정보, 연구개발 정보가 유출된다. 둘째, 송금 계좌 조작, 신용카드 정보 탈취 등으로 인해 직접적인 금전적 피해가 발생한다. 셋째, 중요 시스템이 공격 받고, 주요 데이터 파일이 훼손하는 등으로 인해 업무가 마비된다. 넷째, 해킹 피해가 알려지면 기업의 브랜드 이미지가 실추될 수 있다.
AI 활용 시스템 구축 시 AI, 빅데이터 외에 해킹과 보안에 대한 투자도 충분히 고려돼야 한다. AI 기술 혜택을 누리면서도 위험을 인식하고 적극적으로 대처하는 것은 우리 사회 안전과 신뢰를 지키기 위한 필수 과제기 때문이다.
이경배 연세대·성균관대 겸임교수 kb.lee@yonsei.ac.kr