최근 충격을 안겨준 뉴질랜드 테러 사건이 소셜네트워크서비스(SNS)를 통해 생중계되면서, 이를 볼 생각이 없었던 이용자들도 연관검색어, 자동재생 기능 등 추천 시스템을 통해 폭력적인 영상에 노출됐다. 한편으로는 맞춤형 서비스 발달과 함께 이용자들은 검색기록, 상품 구매이력 등 개인의 사생활과 관련된 정보가 어떻게 수집되고 활용되는지 몰라 불안해한다. 정보통신기술이 급속도로 발전하면서 그동안 겪어보지 않았던 역기능이 발생하고 있는 것이다.
인공지능(AI)이 데이터를 처리해 인간의 고도화된 지적 활동까지 수행하게 되는 ‘지능정보화 시대’에는 예측하기 어려운 새로운 문제에 직면하게 될 것이다. 기계 의존성 증대, 자율주행차로 인한 책임 문제, AI 로봇의 윤리성 등이 대표적인 예이다. 이전 정보화 환경에서 의사결정 권한이 오롯이 인간에게 있었다면, 지능정보사회에서는 의사결정의 상당 부분을 기계와 알고리즘에 의존하게 된다. 이로 인해 인간의 자율성과 판단 능력이 약해지고 의사결정의 책임 소재가 불분명해질 가능성이 높다.
특히 알고리즘 기반 맞춤형 서비스들은 좋아하는 콘텐츠만 편식하게 만드는 ‘선택적 노출’ 현상으로 이어질 수 있다. 이로 인해 자신의 주장과 일치하는 정보는 쉽게 받아들이나 다른 정보는 무시하는 ‘확증편향’ 현상이 보편화되고, 필터링된 정보만을 받게 되는 ‘필터 버블’ 속에 갇힐 수 있다. 그 결과 맞춤형 서비스가 이용자들 간의 편향과 대립을 부추기는 사례가 늘어나게 될 것이다.
이 때문에 미국은 2016년 빅데이터 알고리즘에 의한 ‘차별’의 위험성을 예방하기 위한 윤리적 가이드라인을 만들었다. 일본은 지난해 기본권 보장, 알고리즘 과정에 대한 설명 책임 등이 포함된 ‘AI 활용 7개 원칙’을 내놨다. 유럽연합(EU)은 유럽인공지능협의체를 통해 알고리즘의 투명성 원칙을 포함한 ‘AI 윤리 가이드라인’을 연내 발표할 예정이다.
이제 우리도 지능정보사회 이용자 보호의 기본적인 원칙을 마련해야 할 시점이다. 지능정보서비스는 기본적으로 인간의 존엄과 가치를 훼손하지 않아야 한다. 지능정보사회 참여자들의 자율성은 최대한 보장되고, 이용자들은 투명하고 비차별적으로 지능정보서비스를 향유할 수 있어야 한다. 특히 알고리즘 기반 맞춤형 서비스와 같은 지능정보서비스의 의사결정 과정은 이용자가 이해할 수 있도록 가능한 한 투명하게 공개돼야 한다. 또한 개인정보를 포함한 이용자의 정신적, 신체적, 경제적 안전이 보장되고, 모든 참여자가 상생할 수 있는 환경이 조성돼야 한다. 방송통신위원회는 지능정보사회의 이용자 보호 규범에 대한 공감대를 형성하고, 이용자 보호를 위한 원칙의 마련과 그 실천을 위하여 민관협의체를 구성해 운영해 나가고자 한다.
댓글 0