전세계 각국에서 스마트폰과 소셜네트워크서비스(SNS) 중독이 사회 문제로 부상하자 인스타그램 운영사 메타가 인스타그램에서 청소년을 보호하기 위한 정책을 내놨다. 우리나라에선 청소년 사용시간 제한 등 기능이 내년 1월부터 적용된다.
프리앙카 발라(Priyanka Bhalla) 메타 아시아태평양(APAC) 지역 안전 정책 총괄은 5일 서울 강남구 센터필드 메타 본사에서 열린 ‘청소년 안전 라운드테이블’에서 발표를 하고 있다. 2024.11.05 ⓒ 뉴스1
청소년 계정의 보호 기능은 자동으로 설정되며, 특히 17세 미만 이용자의 경우 부모의 승인이 있어야만 계정 설정 보호 강도를 낮출 수 있다. 부모는 관리 감독 기능을 통해 자녀의 이용 시간을 제한할 수 있으며, 자녀가 어떤 사용자와 대화하고 어떤 사용자를 차단했는지 등의 정보를 확인할 수 있다.
청소년 계정 적용 대상인지를 파악하기 위해 인공지능(AI) 기술 등을 활용한 성인 판별 시스템도 도입했다. 현재 사용자는 가입시 자신의 연령을 직접 입력하기 때문에 실제 연령과 다른 연령으로 속여 가입할 수 있기 때문이다. 메타는 이용자가 어떤 분야 게시물에 관심을 갖고 있으며, 누구와 팔로우를 하는지 등을 종합적으로 분석해 해당 사용자의 연령을 추정해 연령을 속일 경우 계정 중지 등 제한 조치를 내린다.
업계에선 개별 SNS가 아니라 스마트폰 운영체제(OS) 차원에서 규제가 이뤄져야 한다는 제안도 나오고 있다. 발라 총괄은 “청소년이 사용하는 모든 애플리케이션을 부모가 전부 감시하고 승인할 수는 없다”면서 “업계 제안 중 하나는 앱스토어 차원에서 청소년 연령에 맞는 앱을 내려받는 건지 확인하고 동의를 받도록 하는 것도 방법”이라고 했다.
메타가 이처럼 청소년 보호 조치에 나선 것은, 전세계적으로 청소년의 SNS 과의존 문제의 심각성이 커지고 있기 때문이다. 4일(현지시간) 프랑스의 한 일곱 가족은 세계 최대 숏폼 플랫폼 틱톡을 상대로 청소년의 정신건강을 해친다며 집단 소송을 제기했다. 소송에 참여한 가족을 대리한 소셜 네트워크 피해자 모임 단체 ‘알고스 빅티마’는 틱톡이 자살, 자해, 섭식 장애를 조장하는 수많은 동영상을 아이들에게 노출했다고 주장했다. 원고들의 딸 7명 중 2명은 스스로 목숨을 끊었고, 4명은 극단적 선택을 시도했으며 1명은 거식증을 앓고 있는 것으로 전해졌다.
장은지 기자 jej@donga.com