오픈AI, 허위 선거 정보 예방 기능 강화

오픈AI, 허위 선거 정보 예방 기능 강화

2024년은 수퍼 선거의 해다. 지난 13일 대만 총통 선거를 시작으로 우리나라는 물론이고 미국, 인도네시아, 인도 등에서 대선과 총선이 열린다. 국내외 대규모 정치 이벤트를 앞두고 생성형 인공지능(AI)를 활용한 사이버 범죄 등에 대한 우려도 어느때보다 높다.

챗GPT를 개발한 오픈AI는 15일(현지시간) 본격적 선거 시즌을 앞두고 자사 기술이 선거에 대한 허위 정보를 만들거나 확산하는 것을 막기 위한 계획을 발표했다.

오픈AI는 자사 기술을 이용해 사람들의 투표 행위를 방해하거나 투표에 대한 잘못된 정보를 퍼뜨리는 정치 캠페인, 애플리케이션(앱)을 구축하는 것을 허용하지 않겠다는 방침이다.

또 올해 초부터 생성형 AI 이미지 생성기인 '달리(DALL-E)'에 AI로 만든 이미지라는 것을 식별할 수 있도록 '콘텐츠 출처 및 진위 확인을 위한 연합(C2PA)'의 디지털 자격 증명(워터마크)를 삽입한다.

아울러 '달리' 등 생성형 이미지 AI를 활용해 만들어진 이미지를 식별할 수 있는 기술을 연구하고 있다고 덧붙였다.

챗GPT에서도 선거 관련 정보 등에 출처를 확인할 수 있도록 할 계획이다.

오픈AI는 유권자에게 오해를 불러일으킬 수 있는 이미지 합성 기술인 '딥페이크'나 후보자를 사칭하는 챗봇과 같은 기술 남용을 예측하고 예방하기 위해 노력하고 있다고 밝혔다.

그동안 선거 등 대형 정치 이벤트를 앞두고 인터넷 게시판이나 소셜네트워크서비스(SNS) 등을 이용한 허위정보 확산은 늘 우려사항으로 지적돼왔다. 생성형 AI 기술 등장 이후 챗봇과 이미지 생성기를 이용해 보다 정교하게 한꺼번에 많은 양의 가짜정보를 퍼뜨릴 수 있다는 가능성이 높아졌다.

빅테크 기업은 AI가 선거에 악용되는 것을 방지하기 위해 지난해 말부터 대응 정책을 강화하고 있다. 구글은 지난해 12월 AI 검색 서비스 등이 선거 관련 질문에 답변하는 기능을 제한할 것이라고 밝혔다. 또 메타(옛 페이스북)도 정치 캠페인을 구매한 광고주가 AI를 사용했는지 여부를 공개하도록 요구할 방침이다.

전문가들은 오픈AI를 비롯해 AI기업들의 노력에도 불구하고 AI 기술을 활용한 가짜 정보 생성, 확산을 막는 데 한계가 있을 것으로 내다봤다. 생성형 AI 기술로 생성된 가짜 이미지의 워터마크를 제거하거나 일부 내용을 변경하면 이를 알아보기 힘들 수 있다고 지적했다.

김명희 기자 noprint@etnews.com

AI