이효성 방송통신위원회 위원장
인공지능(AI)이 데이터를 처리해 인간의 고도화된 지적 활동까지 수행하게 되는 ‘지능정보화 시대’에는 예측하기 어려운 새로운 문제에 직면하게 될 것이다. 기계 의존성 증대, 자율주행차로 인한 책임 문제, AI 로봇의 윤리성 등이 대표적인 예이다. 이전 정보화 환경에서 의사결정 권한이 오롯이 인간에게 있었다면, 지능정보사회에서는 의사결정의 상당 부분을 기계와 알고리즘에 의존하게 된다. 이로 인해 인간의 자율성과 판단 능력이 약해지고 의사결정의 책임 소재가 불분명해질 가능성이 높다.
특히 알고리즘 기반 맞춤형 서비스들은 좋아하는 콘텐츠만 편식하게 만드는 ‘선택적 노출’ 현상으로 이어질 수 있다. 이로 인해 자신의 주장과 일치하는 정보는 쉽게 받아들이나 다른 정보는 무시하는 ‘확증편향’ 현상이 보편화되고, 필터링된 정보만을 받게 되는 ‘필터 버블’ 속에 갇힐 수 있다. 그 결과 맞춤형 서비스가 이용자들 간의 편향과 대립을 부추기는 사례가 늘어나게 될 것이다.
이제 우리도 지능정보사회 이용자 보호의 기본적인 원칙을 마련해야 할 시점이다. 지능정보서비스는 기본적으로 인간의 존엄과 가치를 훼손하지 않아야 한다. 지능정보사회 참여자들의 자율성은 최대한 보장되고, 이용자들은 투명하고 비차별적으로 지능정보서비스를 향유할 수 있어야 한다. 특히 알고리즘 기반 맞춤형 서비스와 같은 지능정보서비스의 의사결정 과정은 이용자가 이해할 수 있도록 가능한 한 투명하게 공개돼야 한다. 또한 개인정보를 포함한 이용자의 정신적, 신체적, 경제적 안전이 보장되고, 모든 참여자가 상생할 수 있는 환경이 조성돼야 한다. 방송통신위원회는 지능정보사회의 이용자 보호 규범에 대한 공감대를 형성하고, 이용자 보호를 위한 원칙의 마련과 그 실천을 위하여 민관협의체를 구성해 운영해 나가고자 한다.
이효성 방송통신위원회 위원장