[데스크 진단]알고리즘은 공정할 수 있는가

  • 동아일보
  • 입력 2017년 12월 11일 03시 00분


김유영 산업부 차장
김유영 산업부 차장
[명사] 어떤 문제의 해결을 위해 입력된 자료를 토대로 원하는 출력을 유도하는 규칙의 집합.

표준국어대사전에 나온 알고리즘의 정의다. 컴퓨터 프로그래머들이나 썼던 이 단어가 최근 1, 2년 사이 우리 삶에 훅 들어왔다. 뉴스 소비도 그중 하나다. 우리가 하루에 최소 열 번쯤은 들여다보는 네이버는 올해 2월부터 인공지능(AI) 알고리즘이 뉴스를 추천해 주고 있다. 로그인해서 스마트폰을 보면 화면 하단에 추천 뉴스 8개 정도가 올라와 있다.

이는 알고리즘이 관심사별 사용자그룹을 시시각각 생성해 이들이 많이 읽은 뉴스를 뽑고 개인 뉴스 소비 패턴도 스스로 학습해 추천해 주는 뉴스다. 최근 기사 배치 조작 등으로 공정성 논란을 키워 온 네이버는 이런 알고리즘 편집을 내년부터 본격 확대해 궁극적으로는 직원의 편집 비중을 0%로 만들겠다고 선언했다. 그렇다면 알고리즘으로 추천되는 뉴스는 공정할까.

일단 알고리즘조차 편향성을 띨 수 있다는 게 전문가들의 견해다. 지난해 AI 알고리즘이 100여 개국 6000여 명을 대상으로 얼굴 대칭, 피부, 주름 등을 기준으로 미인을 선발한 대회가 열렸다. 결과는? 수상자 44명 중 43명이 백인이었다. 이는 AI가 백인 사진을 주로 학습한 데서 빚어진 결과였다.

알고리즘의 인종 차별은 빙산의 일각일 수 있다. 러시아 정부는 페이스북을 통해 미국 대선에 조직적으로 개입했다. 페이스북에 가짜 계정을 운영하며 인종, 총기, 이민 등 논쟁적 이슈에 대해 정치성향을 띤 광고를 집행한 것. 페이스북은 알고리즘을 이용해 나이 지역 인종 등에 따라 광고주가 원하는 이용자에게 광고를 띄우는데, 이는 1억2600만여 명의 미국인에게 도달했다.

이런 여론 조작이 민주주의 위협 수단이 되기도 한다. 미국 심리학자인 로버트 엡스타인은 검색 엔진 순위 조작으로 표심(票心)을 조작할 수 있음을 밝혀냈다. 미국과 인도에서 4556명의 부동층 유권자를 대상으로 순위 조작 실험을 한 결과 20% 이상이 영향을 받았다. 그는 “단일 검색 엔진이 지배적인 국가일수록 더 큰 영향을 받을 수 있다”고 경고했다. 네이버 검색점유율이 74.7%인 한국에 시사하는 바가 적지 않은 부분이다.

이런 맥락에서 알고리즘이 포털의 공정성 논란에 방패가 될 수 없다. 더욱이 맞춤형 뉴스를 접할수록 이용자 스스로 편협한 시각에 갇히는 필터 버블(Filter Bubble)도 생길 수 있다. 다양한 의견을 접해야 할 민주주의 사회에서 ‘보고 싶은 뉴스, 듣고 싶은 뉴스’만 접하는 확증편향이 강화될 수 있다는 얘기다. 국민 절반 이상이 포털을 언론으로 인식하는 시대에 포털 스스로 언론으로 기능하려 할 때에 문제가 심각해질 수 있는 이유다.

알고리즘의 부작용은 서막일지도 모른다. 알고리즘이 음악, 여행지, 식당, 쇼핑 등 우리 일상과 직결되는 영역에 암암리에 활약하는 시대가 오고 있다. 블랙박스로도 불리는 알고리즘은 머신러닝 등으로 고도화될수록 인간이 이해 불가한 결과를 내놓을 수도 있다. 하지만 결국 알고리즘도 인간이 만드는 것인 만큼 그 폐해를 줄이기 위해 고민에 나설 때다. 유럽연합(EU)은 내년에 일반개인정보보호규정(GDPR)을 법제화하면서 시민이 알고리즘에 대해 설명을 요구할 권리를 명시하기로 했다. 알고리즘에 어떤 가치가 우선 적용되어야 하는지 충분한 논의를 이제라도 해야 한다. 그렇지 않으면 알고리즘은 우리를 차별하고 우리의 민주주의를 위협할 수 있다.

김유영 산업부 차장 abc@donga.com
#네이버#공정#뉴스#알고리즘#포털
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0