(사진제공=페이스북)
올해 1분기 페이스북이 2500만 건 이상의 혐오 발언 콘텐츠를 제재한 것으로 나타났다.
페이스북은 ‘2021년 1분기 커뮤니티 규정 집행 보고서’를 통해 올 1분기 2520만 건의 혐오 발언 콘텐츠에 조치했다고 21일 밝혔다. 인스타그램의 경우 630만 건 혐오 발언 콘텐츠를 제재했다.
페이스북의 조치는 콘텐츠 삭제, 경고장 추가, 계정 삭제 등을 포괄한다.
조직적인 혐오 콘텐츠의 경우 페이스북은 980만 건에, 인스타그램은 32만4500건이다.
페이스북 내 혐오 발언 콘텐츠 노출 비율은 0.05~0.06%였다.
페이스북은 이에 대해 “조회 수 1만 회당 혐오 발언 콘텐츠는 5~6건에 불과했음을 뜻한다”며 “혐오 발언 콘텐츠의 경우 처음 수치를 공개했던 2017년 4분기에는 누군가 신고하기 전 페이스북이 사전에 탐지한 비율은 23.6%였지만, 현재는 약 97%를 이용자 신고 전에 미리 탐지하고 있다”고 덧붙였다.
1분기 페이스북과 인스타그램에서 성인 나체 관련 콘텐츠에 이용자들이 노출된 횟수 비율은 0.03~0.04% 수준으로 나타났다.
페이스북과 인스타그램은 또 올해 4월까지 코로나19 관련 잘못된 정보를 확산한 콘텐츠 1800만 건을 삭제했다.