러시아와 중국 등 일부 국가의 그룹이 인터넷상 여론 조작을 통한 정치적 선전을 위해 챗GPT를 이용한 것으로 나타났다.
챗GPT 개발사 오픈AI는 30일(현지시간) 보고서를 통해 “인터넷상의 '기만적인 활동'에 우리의 인공지능(AI) 모델을 이용하려는 5건의 은밀한 시도를 확인하고, 이를 차단했다”고 밝혔다.
오픈AI는 “위협 행위자들이 지난 3개월 동안 우리의 AI 모델을 사용해 짧은 댓글과 다양한 언어로 된 긴 기사를 만들고, 가짜 소셜미디어(SNS) 계정을 만들었다”고 설명했다.
오픈AI는 러시아 2곳과 중국, 이란 각 1곳이 이런 시도를 했으며, 이스라엘 그룹도 포함됐다고 밝혔다.
이런 시도는 우크라이나 및 가자 전쟁, 인도 선거, 유럽과 미국의 정치 등의 문제에 초점을 맞췄다고 오픈AI는 덧붙였다.
오픈AI는 이런 기만적인 활동은 “여론을 조작하거나 정치적 결과에 영향을 미치기 위한 시도”라고 강조했다.
오픈AI의 정보 및 조사팀의 조사관 벤 님모는 “이들 그룹 중 어느 곳도 큰 관심을 받지 못했다”며 “그들과 관련된 SNS 계정의 사용자 수는 적고 팔로워 수는 소수에 불과했다”고 말했다.
워싱턴포스트(WP)는 “SNS에서 수년간 활동해 온 이들이 활동을 확대하기 위해 AI 기술을 사용하고 있다는 것을 보여준다”고 설명했다.
오픈AI는 이들 조직이 그들의 영향력 행사를 위해 어떻게 챗GPT를 사용했는지에 대해서도 설명했다.
중국은 중국어와 한국어, 일본어, 영어로 게시물을 작성하기 위해 챗GPT를 사용했고, 이란도 사이트에 게시한 기사를 챗GPT로 만들었다.
중국은 또 지난해 하반기 후쿠시마 오염수 방출과 관련한 기사를 한국어를 비롯해 영어와 일본어, 중국어, 러시아어로 번역해 일본 비난에 이용했다고 오픈AI는 설명했다.
러시아는 미국이 우크라이나를 지원해서는 안 된다고 주장하는 게시물과 댓글 생성에 챗GPT를 이용했다.
이스라엘의 정치 캠페인 기업은 미국과 캐나다인들을 겨냥해 가자 전쟁에 대한 친이스라엘 게시물을 생성하는 데 오픈AI 기술을 사용했다.
앞서 페이스북 모회사 메타는 이스라엘을 옹호하고 미 대학가의 반유대주의 시위 비판 글을 유포한 이스라엘 디지털 마케팅회사 스토익(STOIC)이 만든 가짜 계정 수백 개를 차단한 바 있다.
WP는 “대선이 다가오면서 위협 행위자들이 생성형 AI로 은밀한 선전전을 쉽게 만든다는 우려를 부각시켰다”고 전했다.
김명희 기자 noprint@etnews.com
-
김명희 기자기사 더보기