[기획]생성형 AI 보안 우려…국내·외 대응은?

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

챗GPT 등 생성형 인공지능(AI) 기술이 산업 전방위로 활용되면서 보안 위협을 우려하는 목소리도 커지고 있다. 생성형 AI를 사이버 공격에 적용하는 것은 물론 정보 유출 문제가 제기되면서 각국에서 잇달아 대응책 마련에 나섰다.

국가정보원은 공공기관과 지방자치단체에 생성형 AI 기술 활용 보안 가이드라인을 배포할 예정이다. 업무상 비밀 또는 개인정보 유출, 가짜뉴스와 비윤리적인 자료 생성과 같은 악용 우려가 있는 만큼 정부 기관들이 최신 기술을 활용해 안전하고 효율적으로 업무를 처리할 수 있도록 지원하기 위해서다. 국정원에 따르면 해당 가이드라인에는 생성형 AI에 대한 개요는 물론 보안 위협과 안전한 사용 방안이 포함된다.

행정안전부는 지난달 챗GPT에 한정된 주의사항을 담은 안내문을 약 300개 정부 기관에 배포했다. 해당 안내문에서 행안부는 의사결정이 완료되지 않거나 공표되지 않은 정보는 생성형 AI에 입력하지 않을 것을 권고했다. 행사 참석자와 민원인들의 정보와 같이 업무 처리 과정에서 수집한 개인정보도 챗GPT와 공유하지 않을 것을 명시했다. 챗GPT의 답변 자체의 진실성도 유의사항으로 제시됐다. 생성형 AI가 만들어낸 정보가 거짓일 수 있기에 별도로 검증할 것을 요청한 것이다.

생성형 AI 보안 우려에 대응해 해외도 전략을 고심한다. 조 바이든 미국 대통령은 AI 규제 마련에 속도를 내고 있다. 외신에 따르면 미 대통령 비서실은 매주 2~3차례 회의를 열고 AI의 안전한 사용에 관한 연방정부 정책을 개발하고 있다.

영국은 올해 AI 규제에 관한 세계 첫 정상회의를 개최할 예정이다. 영국 정부는 지난 7일 성명을 내고 “주요 국가, 선도적 기술 기업, 연구자가 모여 AI의 가장 주요한 위험을 평가하고 감시하기 위한 안전조치에 합의할 예정”이라고 밝혔다.

유럽연합은 AI 규제와 관련된 세계 최초 법률 제정에 총력을 기울인다. 유럽의회는 지난 14일 유럽 전역에 AI를 규제하기 위한 법안 협상안을 가결했다. 행정부 격인 유럽연합 집행위원회가 초안을 발의한 지 2년 만이다. 해당 협상안에는 생성형 AI가 만드는 콘텐츠에 AI에 의해 생성됐다고 명기하고 AI 훈련에 어떤 정보가 활용됐는지 공개해야 한다는 내용이 담겼다. 유럽연합은 연내 협상 타결을 목표로 법 도입을 위한 마지막 절차를 진행 중이다.

중국도 생성형 AI 안전장치 마련에 앞장서고 있다. 중국 국가인터넷정보판공실은 지난 4월 생성형 AI 서비스 관리 방안 초안을 발표했다. 외신에 따르면 판공실은 “공급업자들은 생성형 AI 훈련에 사용되는 데이터의 합법성에 책임을 질 것”이라며 “알고리즘 설계와 데이터 훈련 시 차별을 방지하고 허위 정보의 생성을 방지하는 조치를 취해야 한다”고 했다.

국내·외 생성형 AI 보안 대응 현황.(취재 종합)
국내·외 생성형 AI 보안 대응 현황.(취재 종합)

조재학 기자 2jh@etnews.com