구글·메타·오픈AI 등 빅테크, '아동 성적 학대 자료 확산 제한' 원칙에 서명

구글, 메타(옛 페이스북), 챗GPT 개발사 오픈AI 등 11개 기업과 2개의 비영리 단체가 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다. [사진=스론 웹사이트 갈무리]
구글, 메타(옛 페이스북), 챗GPT 개발사 오픈AI 등 11개 기업과 2개의 비영리 단체가 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다. [사진=스론 웹사이트 갈무리]

글로벌 빅테크 기업들이 인공지능(AI) 모델의 아동 성적 학대 자료(CSAM) 확산을 제한하기 위한 새로운 원칙인 'Safety by Design'에 서명했다고 월스트리트저널(WSJ)이 23일(현지시간) 보도했다.

구글, 메타(옛 페이스북), 챗GPT 개발사 오픈AI 등 11개 기업과 2개의 비영리 단체가 해당 원칙에 동의했다.

이들은 △학습 데이터셋에 CSAM 제외 △CSAM을 포함할 위험이 높은 데이터셋 방지 △데이터 원본에서 CSAM 이미지 또는 CSAM 링크 삭제 △AI 모델이 CSAM 이미지를 생성하지 않도록 '스트레스 테스트'를 수행하고 아동에 안전하다고 평가된 모델을 출시할 것을 약속했다.

생성형 AI는 CSAM 사진 등 딥페이크 이미지를 온라인상에 확산시켜왔다.

스탠퍼드 인터넷 감시소(Internet observatory)는 지난해 12월 일부 AI 모델의 훈련용 데이터셋에 CSAM 사진 링크가 포함됐다는 내용을 담은 보고서를 발표한 바 있다. 해당 보고서를 작성한 연구자들에 따르면, 아동 성 착취 자료 확산 방지를 위해 활동하는 미국 국립실종학대아동센터(NCMEC)는 AI가 생성한 막대한 CSAM을 처리하는 데 애를 먹고 있다.

'Safety by Design' 원칙에 참여한 구글은 원칙 준수 외에도 NCMEC의 활동을 홍보하기 위해 광고 보조금을 늘렸다.

수잔 재스퍼 구글 신뢰 및 안전 솔루션 담당 부사장은 “이러한 캠페인을 지원하면 대중의 인식이 높아지고, 악용 사례를 식별하고 신고할 수 있는 도구를 제공할 수 있다”고 말했다.

현대인 기자 modernman@etnews.com

AI