마이크로소프트(MS)의 이미지 생성 인공지능(AI)이 안전장치 미비로 유해 콘텐츠를 생성한다는 우려가 MS 내부에서 제기됐다.
6일(현지시간) 미국 경제 매체 CNBC 등에 따르면, MS 소프트웨어 엔지니어인 셰인 존스는 자사 AI 이미지 생성 도구 '코파일럿 디자이너'의 폭력적 콘텐츠 생성을 우려하는 서한을 미 연방거래위원회(FTC)에 보냈다.
존스는 “오픈AI의 최신 이미지 생성 모델 '달리'(DALL-E)에서 보안 취약점을 발견했다”며 “이를 통해 유해 이미지 생성을 막는 안전장치를 우회할 수 있었다”고 주장했다. 달리는 코파일럿 디자이너 등 MS의 다양한 AI 도구에 내장됐다.
그는 “코파일럿 디자이너는 부적절하고 성적으로 대상화된 여성 이미지를 무작위로 생성하는 경향이 있다”면서 “정치적 편견과 미성년자 음주 등 다양한 범위에서 유해 콘텐츠를 생성했다”고 덧붙였다.
존스는 “회사 측에 더 나은 안전장치가 마련될 때까지 대중이 사용하지 못하도록 해야한다고 촉구했다”면서 “내부에서도 이용자에게 불쾌하고 부적절한 유해 이미지를 생성할 수 있다는 문제를 잘 알고 있다”고 지적했다.
그는 지난 3개월간 회사에 우려를 표명했고, 이사회에도 서한을 보냈다고 설명했다.
이에 대해 MS와 오픈AI는 즉각 대응하지 않았다고 CNBC는 전했다.
류태웅 기자 bigheroryu@etnews.com
-
류태웅 기자기사 더보기