전세계 각국에서 스마트폰과 소셜네트워크서비스(SNS) 중독이 사회 문제로 부상하자 인스타그램 운영사 메타가 인스타그램에서 청소년을 보호하기 위한 정책을 내놨다. 우리나라에선 청소년 사용시간 제한 등 기능이 내년 1월부터 적용된다.
6일 메타에 따르면 청소년 안전을 위한 ‘10대 계정(Teen Accounts)’을 내년 1월부터 한국에 도입한다. 청소년 계정은 부모가 관리 감독하며 기본적으로 비공개 계정으로 설정된다. 또한 폭력 술 도박 등 민감한 콘텐츠에 덜 노출되게 조정하는 것이 핵심이다. 또한 딥페이크 범죄 등의 심각성을 감안해 팔로잉 관계가 아닌 낯선 사람이 보내는 개인 메시지도 제한된다. 60분 이상 앱을 사용하면 경고 알림이 표시되는 등 앱 이용 시간 관리를 도와준다. 오후 10시부터 오전 7시까지는 알림을 끄는 ‘수면 모드’가 활성화된다.
청소년 계정의 보호 기능은 자동으로 설정되며, 특히 17세 미만 이용자의 경우 부모의 승인이 있어야만 계정 설정 보호 강도를 낮출 수 있다. 부모는 관리 감독 기능을 통해 자녀의 이용 시간을 제한할 수 있으며, 자녀가 어떤 사용자와 대화하고 어떤 사용자를 차단했는지 등의 정보를 확인할 수 있다.
현재는 미국 영국 호주 일부 국가에서 운영 중이며 내년 초 우리나라를 비롯해 전 세계로 확대된다. 프리앙카 발라 메타 아시아태평양(APAC)지역 안전 정책 총괄은 서울 강남구 메타코리아 사무실에서 ‘한국 청소년 안전 라운드테이블’을 갖고 “전 세계의 부모님들은 자녀가 원치 않는 온라인 공간에서 소통하지 않길 원하고, 괴롭힘을 당하지 않으며 자녀가 보는 콘텐츠가 안전하길 원한다”라며 10대 계정을 도입하게 된 배경을 설명했다.
청소년 계정 적용 대상인지를 파악하기 위해 인공지능(AI) 기술 등을 활용한 성인 판별 시스템도 도입했다. 현재 사용자는 가입시 자신의 연령을 직접 입력하기 때문에 실제 연령과 다른 연령으로 속여 가입할 수 있기 때문이다. 메타는 이용자가 어떤 분야 게시물에 관심을 갖고 있으며, 누구와 팔로우를 하는지 등을 종합적으로 분석해 해당 사용자의 연령을 추정해 연령을 속일 경우 계정 중지 등 제한 조치를 내린다.
업계에선 개별 SNS가 아니라 스마트폰 운영체제(OS) 차원에서 규제가 이뤄져야 한다는 제안도 나오고 있다. 발라 총괄은 “청소년이 사용하는 모든 애플리케이션을 부모가 전부 감시하고 승인할 수는 없다”면서 “업계 제안 중 하나는 앱스토어 차원에서 청소년 연령에 맞는 앱을 내려받는 건지 확인하고 동의를 받도록 하는 것도 방법”이라고 했다.
메타가 이처럼 청소년 보호 조치에 나선 것은, 전세계적으로 청소년의 SNS 과의존 문제의 심각성이 커지고 있기 때문이다. 4일(현지시간) 프랑스의 한 일곱 가족은 세계 최대 숏폼 플랫폼 틱톡을 상대로 청소년의 정신건강을 해친다며 집단 소송을 제기했다. 소송에 참여한 가족을 대리한 소셜 네트워크 피해자 모임 단체 ‘알고스 빅티마’는 틱톡이 자살, 자해, 섭식 장애를 조장하는 수많은 동영상을 아이들에게 노출했다고 주장했다. 원고들의 딸 7명 중 2명은 스스로 목숨을 끊었고, 4명은 극단적 선택을 시도했으며 1명은 거식증을 앓고 있는 것으로 전해졌다.
댓글 0