애플, 집단소송 휘말렸다… “아동 성학대 자료 제대로 삭제 안해”

애플이 아이클라우드(iCloud)에서 아동 성적 학대(CSAM) 자료를 제대로 찾아내 삭제하지 않았다는 이유로 집단 소송에 휘말렸다. 사진=로이터 연합뉴스
애플이 아이클라우드(iCloud)에서 아동 성적 학대(CSAM) 자료를 제대로 찾아내 삭제하지 않았다는 이유로 집단 소송에 휘말렸다. 사진=로이터 연합뉴스

애플이 아이클라우드(iCloud)에서 아동 성적 학대(CSAM) 자료를 제대로 찾아내 삭제하지 않았다는 이유로 집단 소송에 휘말렸다.

8일(현지시간) 뉴욕타임스(NYT)에 따르면 27세의 익명의 여성은 이 소송을 지난 7일 미국 캘리포니아 북부 지방법원에 제기했으며, 추후 2680명의 잠재적 피해자가 소송에 동참할 가능성이 있다.

재판에서 애플의 책임이 인정된다면 잠재 피해자의 추가 소송을 고려했을 때, 총 배상액은 12억 달러(약 1조7000억원)를 넘을 수 있을 것으로 보인다.

소송을 제기한 여성은 어린 시절 친척으로부터 성추행을 당했으며, 가해자는 피해자의 사진을 다른 사람과 공유했다고 밝혔다.

사진은 애플의 아이클라우드에도 저장돼 여러 사람에게 공유됐고, 관련자들이 아동학대 사진 소유 혐의로 기소될 때마다 법 집행기관들이 해당 사실을 자신에게 통보해 트라우마에 시달리고 있다고 호소했다.

피해자 측은 애플이 아이폰 등에서 아동 성학대 자료를 자동으로 찾아내고 감시하기 위해 개발한 기능을 포기하면서 피해가 확산했다고 주장하고 있다.

실제로 애플은 관련 기능을 개발했으나 사용자의 프라이버시 침해 우려 논란이 일자 2021년 기능 도입을 포기했다.

이번 소송을 제기한 이들은 “애플이 2021년 발표한 CSAM 기술을 도입했다면, 피해자들의 아동 성학대 영상 및 이미지가 탐지되고 제거됐을 것“이라며 “애플이 이를 실행하지 않아 피해가 계속되고 있다“고 주장하고 있다.

프레드 세인즈 애플 대변인은 이에 대해 ”아동 성적 학대 자료는 혐오스러운 내용이며, 우리는 가해자들이 아동을 위험에 빠뜨리는 방식에 맞서 싸우기 위해 최선을 다하고 있다“며 ”모든 사용자의 보안과 개인 정보 보호를 저해하지 않으면서 이러한 범죄와 싸우기 위해 적극적으로 혁신하고 있다“고 밝혔다.

이원지 기자 news21g@etnews.com