페이스북이 자사 혐오발언 등 제재 대상 콘텐츠 사전 감지율이 중가하고 있다고 12일 밝혔다. 특히 제재 대상에 해당하는 혐오발언은 89%를 이용자 신고 전에 미리 감지했다.
페이스북은 11일 커뮤니티 규정 집행 보고서를 공개했다. 2019년 10월부터 2020년 3월까지 데이터를 모았다.
혐오발언에 대한 페이스북 사전 감지율은 2020년 1분기 89%에서 2분기 95%로 6%p가 증가했다. 조치를 취한 콘텐츠 양 또한 960만건에서 2250만건으로 증가했다.
페이스북은 감지량과 조치가 늘어난 것은 자동화 기술을 스페인어, 아랍어, 인도네시아어까지 포함할 수 있도록 확대했기 때문이라고 설명했다. 1분기 영어로 된 콘텐츠 감지 기술을 개선한 것도 감지량이 늘어난 이유로 꼽았다.
인스타그램에서는 혐오 발언 감지율이 올해 1분기 45%에서 2분기 84%로 39%p 증가했다. 조치를 취한 콘텐츠 양은 80만8000건에서 330만건으로 증가했다. 이 역시 영어와 스페인어 콘텐츠에서 사전 감지 기술을 확장했기 때문이란 설명이다.
페이스북은 올해 1분기 630만건, 2분기 870만건 테러 관련 콘텐츠를 제재했다고 이날 밝혔다.
페이스북은 “기술 개선과 일부 콘텐츠 리뷰어의 복귀에 따라 인스타그램에서 조치를 취한 조직적인 혐오 표현 콘텐츠의 수가 늘었다”면서 “페이스북와 인스타그램에서 따돌림과 괴롭힘 관련 내용으로 조치를 취한 콘텐츠 양도 증가했다”고 밝혔다.
페이스북은 최근 인스타그램에서 자살과 자해 콘텐츠를 파악할 수 있도록 텍스트와 이미지 매칭 기술을 향상했다. 규제 조치가 취해진 콘텐츠의 양이 40% 늘었고, 사전 감지율이 지난 보고서와 비교해 12%p 이상 증가했다.
페이스북은 “데이터베이스화 한 기존 규정 위반 콘텐츠를 기반으로 유사한 콘텐츠를 감지하고 삭제하는 기술이 향상됐다”면서 “페이스북과 인스타그램에서 더 많은 아동 나체 이미지와 아동에 대한 성착취 콘텐츠를 삭제할 수 있게 됐다”고 강조했다.
페이스북은 게시물 관리 기술을 강화하는 것과 별개로 관련 인력도 유지 중이다.
페이스북은 “코로나19 사태로 지난 3월 콘텐츠 리뷰어들이 건강과 안전을 위해 일시적인 자택격리에 들어감에 따라 콘텐츠 검토의 더 많은 부분을 기술에 의존하고 있다”면서 “하지만 자살, 자해, 아동 성착취 콘텐츠를 검토하는 일은 인력에 크게 의존 한다”고 밝혔다.
유해 콘텐츠를 선제적으로 감지해 삭제하거나 해당 기술의 개선을 위해서도 실제 사람이 필요하다는 것이다.
페이스북은 유해 콘텐츠 처리에 대한 수치의 정확성을 보장하기 위해, 2021년부터 독립적인 제3자 기관의 감사를 통해 커뮤니티 규정 집행 보고서에 발표된 수치를 검증받을 계획이다.
김시소기자 siso@etnews.com
-
김시소 기자기사 더보기