페이스북이 테러 관련 콘텐츠를 규제하고자 인공지능(AI) 기술을 확대 적용하겠다고 15일(현지시간) 밝혔다. 페이스북이 테러와의 전쟁을 선포한 각국 정부에 무릎을 꿇었다고 월스트리트저널(WSJ)이 보도했다.
페이스북은 이날 공식 블로그에 “모니터링 요원이 별도로 확인하지 않고 AI가 알아서 테러 관련 콘텐츠를 삭제할 수 있도록 AI 기술을 확대 적용할 것”이라고 발표했다. 페이스북의 브라이언 피시맨 대테러정책 담당 매니저는 “우리의 AI 기술은 결정적인 선택을 언제 어떻게 해야 하는 지 안다”며 AI가 테러 콘텐츠 규제를 유능하게 처리할 수 있다고 자신했다.
과거 페이스북을 포함한 소셜네트워크서비스(SNS) 기업들은 사용자나 모니터링 요원이 위험한 콘텐츠를 직접 색출했다. 알고리즘이 콘텐츠를 걸러내는 경우에도 최종 확인 작업은 인간이 하곤 했다. 그러나 혐오나 테러 관련 콘텐츠가 급증하는 만큼 AI 기술을 발전케 해 효과적인 콘텐츠 관리를 하겠다고 페이스북은 천명한 것이다.
최근 2년간 정보·기술(IT) 기업들은 콘텐츠 규제량을 늘려왔지만, 각국 정부는 규제를 더 강화해야 한다는 견해를 밝혀왔다. 최근 영국에서 대형 테러가 잇따라 발생해 테러 관련 콘텐츠를 규제해야 한다는 목소리는 더 높아졌다. 지난 13일 영국의 테리사 메이 총리와 프랑스의 에마뉘엘 마크롱 대통령은 온라인 상에서 테러 관련 게시물을 삭제하지 않는 IT 기업에 벌금을 부과하는 방안을 논의했다. 메이 총리는 회담 전 발표한 성명에서 “영국과 프랑스는 IT 기업들이 그들의 플랫폼에 해로운 콘텐츠를 내버려둘 경우 책임을 지도록 할 것”이라면서 “만약 그들이 규제하지 못하면 새로운 법적 규제를 통한 방식도 고려하고 있다”고 설명했다.
지난달 독일은 오는 9월 총선을 앞두고 가짜뉴스와 테러에 대응을 강화한다는 차원에서 일정 시간 내에 유해 게시물을 삭제하지 않는 IT 업체에 벌금을 최고 5000만 유로(약 629억8100만 원)까지 부과하는 입법안을 의결했다. 이 법은 사용자가 신고하고 나서 24시간 안에 가짜뉴스 혐오, 테러 관련 유해 콘텐츠가 삭제되지 않으면 벌금을 부과한다는 내용이다.
2년 전만 해도 이러한 정부의 규제는 표현의 자유를 억제할 수 있어 반발을 낳기 쉬웠다. 그러나 이슬람국가(IS)의 활동이 가시화하고 온라인 상에서 테러를 연상케 하는 콘텐츠가 속출하면서 정부의 규제는 힘을 받는 모양새다. 페이스북은 일단은 저자세를 취하고 있다. 지난달 페이스북의 마크 저커버그 최고경영자(CEO)는 자신의 페이스북에 “전 세계적으로 잔혹하고 해로운 콘텐츠를 걸러내고자 4500명의 모니터링팀을 운영해왔다”며 “여기에 3000명을 추가 고용하겠다”고 썼다. 또 페이스북은 테러 관련 콘텐츠만 따로 모니터링하는 직원이 현재 150명 있다고 밝혔다.
페이스북뿐 아니라 트위터, 유튜브 등도 테러 관련 콘텐츠를 근절하는 기술 개발에 힘을 쏟고 있다. 트위터는 자동화된 기술을 이용해 테러 관련 콘텐츠를 지우고 있다며 작년 7월부터 12월까지 내부 툴을 이용해 삭제한 콘텐츠가 37만6890건에 이른다고 밝혔다. 유튜브는 한번 신고된 동영상을 사용자가 재업로드하지 못하도록 소프웨어프로그램을 만들어 적용하고 있다고 15일 밝혔다.