페이스북 게시물 감시체계 살펴보니… ‘따돌림 콘텐츠’ 신고 땐 삭제 조치
‘특정집단 혐오발언’은 자동 적발… 폭력-지재권 등 25개 제재기준 마련
하루 100만건 이상 게시물 검토… “규정만 지키면 표현의 자유 허용”
①출산 장면을 찍은 동영상 ②내 동생 뱃살 놀리며 찍은 사진 ③‘일본×은 쪽○○’라고 쓴 게시물.
위 세 가지 보기 중 페이스북에 올려도 되는 콘텐츠는 무엇일까.
정답은 ①이다. ②는 당사자인 동생이 신고할 경우 페이스북 규정상 ‘따돌림 및 괴롭힘’ 범주에 들어가 삭제된다. ③은 특정 집단에 대한 ‘혐오 발언’ 규정에 걸려 신고가 없어도 자동 삭제 조치된다.
○ 3만5000명 고용해 24시간 감시하는 페이스북
앞으로 페이스북에 올리는 게시물 가운데 규정 위반으로 삭제되는 일이 점점 더 늘어날 것으로 보인다. 페이스북이 자체 검열 규정을 상세히 마련해 공개하고 상시 감시 인력도 확충하고 있기 때문이다. 그동안 페이스북은 표현의 자유를 우선한다며 ‘플랫폼’ 업체의 콘텐츠 개입을 꺼려 왔다. 하지만 뉴질랜드 총기 난사 테러범 생중계, 아동 음란물 등 부적절한 동영상으로 국제적인 비판이 빗발치자 유해 콘텐츠를 자체 검열하라는 지적을 받아들인 것이다.
10일 정보통신기술(ICT) 업계에 따르면 페이스북은 국가별로 상시 감시 인력을 두고 게시물 규정 마련 작업에 투자하고 있다. 2017년 대비 3배 늘어난 3만5000명을 배치해 각각 다른 언어와 사회문화적 규범을 반영한 커뮤니티 규정을 만들어 시행하고 있고, 하루에 약 100만 건 이상의 게시물을 검토하고 있다.
지난달 13일에는 최초로 페이스북과 인스타그램을 모두 포함한 콘텐츠 조치 보고서를 내놓기도 했다. 해당 보고서에 따르면 가장 최근인 올해 3분기(7∼9월) 기준 페이스북에서 자살 및 자해 관련 콘텐츠 250만 개, 아동 나체 이미지 및 아동 성 착취 관련 콘텐츠 1160만 개, 불법 무기 거래 콘텐츠 230만 개 등이 삭제됐다.
○ 25개 규칙 어긋나면 삭제 조치
현재 페이스북이 공개하고 있는 게시물 규정은 총 25가지다. 크게 △폭력 및 범죄 행위 △안전을 해치는 행위 △불쾌한 콘텐츠 △가짜 뉴스 및 허위 정보 △지식재산권 △그 외 이용자 요청 등으로 분류되며 각 하위 항목에서 범죄 조장, 혐오 발언, 성매매 알선 등 구체적인 내용이 세분돼 있다.
다만 페이스북을 쓰는 국가별, 시기별로 사회적 맥락이 천차만별이다 보니 이런 규칙들에서도 예외는 있다. 예컨대 위에서 제시된 ①출산 장면의 경우 처음엔 ‘나체 노출’ 규정에 해당돼 자동 삭제됐다. 하지만 일부 국가 의료계에선 이러한 영상이 교육적으로 사용될 수 있다고 문제를 제기했다. 이에 따라 각계 전문가들과 6개월간 상의한 끝에 ‘해당 영상은 출산 장면을 담고 있습니다’라는 사전 공지를 전제로 게재를 허용하기로 했다.
‘따돌림 및 괴롭힘’의 경우 만 18세 이하 미성년자에게는 특히 철저하게 적용한다는 예외도 있다. ②의 경우 단순히 사진만 올리고 ‘내 동생의 빛나는 몸매’라고 썼던 사례다. 표면적으로는 긍정적인 표현의 게시글이어도 청소년인 동생이 받아들이는 입장에서 불쾌하다고 신고하면 삭제할 수 있다. 올 3분기 기준 폭력과 선정성 등 대부분의 분야에서 인공지능(AI)이 99%에 가까운 사전 적발률을 기록했지만 따돌림은 16.1%만 걸러내 여전히 사회적 맥락에 따른 사람의 판단이 필요한 것으로 나타났다.
유동연 페이스북 콘텐츠 정책담당은 “페이스북에서 신고가 들어온 사항들은 하나도 빠짐없이 엄밀히 모니터링하고 있다. 단 한 명이 신고해도 규정 위반인 경우 삭제 조치되고 1000명이 신고해도 규정상 문제가 없으면 표현의 자유로 받아들여진다”고 말했다.
댓글 0