페이스북이 부적절한 게시물을 걸러내기 위해 인공지능(AI) 도구를 도입했지만 뉴질랜드 크라이스트처치에서 발생한 총격 테러 중계를 사전에 탐지하는데 실패했다고 시인했다.
가이 로즌 페이스북 진실성 담당 부사장은 20일(현지시간) 회사 블로그를 통해 “이 동영상은 우리의 자동 탐지 시스템을 작동하게 하지 않았다”며 “AI는 우리 플랫폼에서 테러 콘텐츠에 대항하기 위해 중요한 부분이고, 계속 향상되고 있지만 결코 완벽하지는 않다”고 말했다.
페이스북은 그동안 플랫폼 상의 악성 콘텐츠를 차단하기 위해 1만5000명의 검토자를 투입하고 AI의 성능을 개선해 왔다. 하지만 이번 뉴질랜드 테러범이 범행 과정을 17분간 실시간으로 중계하는 동안 페이스북은 이 사실을 인지하지 못했다. 페이스북은 이 영상이 페이스북 내에서 4000여번 조회됐으며, 이후 자신들이 통제할 수 없는 다른 사이트로 유포됐다고 해명했다.
일부 비평가들은 페이스북이 동영상 확인 시간을 확보하기 위해 일정한 스트리밍 시간차를 둬야 한다고 요구하고 있다.하지만 로즌 부사장은 매일 방송되는 수백만개의 라이브 비디오에 시간차를 둘 경우 오히려 사용자 리포트가 접수되는 속도가 느려질 것이라며 반대 입장을 밝혔다.
댓글 0