페이스북이 사진 공유 사회관계망서비스(SNS) 인스타그램에 대한 자해 관련 이미지 연동 노출을 전면 금지키로 했다.
7일(현지시간) 파이낸셜타임스 등 외신보도에 따르면 페이스북은 이날 자살 예방 전문가와 정신건강 전문가의 조언에 따라 자해 등 유해 이미지 콘텐츠를 삭제키로 했다고 밝혔다.
페이스북은 또 자해와 관련된 비자극적 이미지 역시 검색하기 어렵게 만들고, 이른바 민감성 화면을 적용해 관련 내용을 흐리게 보이도록 하는 기술을 적용하는 것을 검토하고 있다고 밝혔다.
애덤 모세리 인스타그램 대표도 “우리는 자해와 자살이 아니라 우리 사회에서 가장 취약한 사람들을 보호하기 위해 더 많은 일을 해야 한다”고 말했다.
그는 그러면서도 “어려움에 처한 사람들이 왕따당하거나 고립되는 것을 원하지 않는다”며 자기 피해와 관련된 비자극적 내용은 게재를 금지하지 않을 것이라고 덧붙였다.
영국 의회는 최근 페이스북 등 SNS 회사들이 유해 콘텐츠로부터 사용자를 보호하기 위한 노력을 강화하지 않을 경우 새로운 법을 도입하겠다고 경고했었다.
지난 2017년 영국에서 자살한 10대 소녀의 아버지는 “인스타그램과 핀터레스트를 포함한 SNS 회사들이 불온한 콘텐츠를 유치하고 특정 사용자들을 대상으로 아동 자살을 선동했다”고 주장했다.
【서울=뉴시스】