[광화문에서/김유영]알고리즘이 우리를 배신할 때…미디어 면역력이 필요한 까닭

  • 동아일보
  • 입력 2019년 1월 8일 03시 00분


김유영 디지털뉴스팀 차장
김유영 디지털뉴스팀 차장
엔지니어들이나 썼을 법한 단어, 알고리즘이 우리 삶에 훅 들어왔다. 인공지능(AI) 스피커를 통해 AI가 추천하는 음악을 듣고 온라인 쇼핑몰 콜센터에서 AI 챗봇(채팅로봇)과 상담한다. 이런 AI를 작동하는 중심에 바로 그 알고리즘이 있다.

이런 알고리즘이 2019년 한국 사회에서 변곡점을 맞이할 듯하다. 한국인이 뉴스를 가장 많이 접하는 포털인 네이버는 올해 1분기(1∼3월)부터 AI가 뉴스를 본격 편집한다. 뉴스 조작 논란이 일자 사람이 편집에서 손을 떼는 것이다. 한국인이 하루 중 가장 오래 쓰는 앱인 유튜브는 정치 사회적으로도 논쟁적인 공간으로 바뀌고 있다. 신재민 전 기획재정부 사무관이 폭로한 곳도, 홍준표 전 자유한국당 대표에 이어 유시민 노무현재단 이사장 등 정치인들이 1인 방송의 격전지로 삼은 곳도 유튜브였다. 올해 재·보궐선거와 내년 총선 등을 앞두고 이런 분위기가 가열될 것으로 보인다.

이들 플랫폼은 알고리즘이 이용자 취향과 선호도 등을 분석해 맞춤형 콘텐츠를 추천해 보여준다. 콘텐츠를 일일이 찾는 수고로움은 덜어주지만 과연 이게 공정할까. 알고리즘은 정보를 여과해 이용자를 특정 정보의 거품에 가두는 필터 버블(Filter Bubble)을 만들 수 있다. ‘보고 싶은 뉴스’만 보다 보면 자신의 관심사나 정치적 성향과 다른 뉴스가 차단되고 자신의 생각이 진리라는 오류에 빠지기 쉽다. 특히 AI가 특정 성별이나 계층, 인종 등에 쏠린 데이터를 학습했을 경우 알고리즘 자체가 편향된 결과 값을 내놓을 수 있다.

미국 워싱턴의 조사기관인 퓨(Pew) 리서치센터는 ‘코드 의존: 알고리즘 시대의 명과 암’을 통해 알고리즘이 의견 분열을 심화시키고 숙의 민주주의 발전을 저해할 수 있다고 지적한다. 알고리즘이 필터 버블을 만들어 다양한 생각과 믿을 만한 정보를 우연히 접할 기회(serendipity)를 없앤다는 설명이다. 구글 엔지니어 출신인 기욤 샤슬로는 “유튜브 추천 알고리즘은 사람들이 온라인에서 오래 체류하도록 왜곡돼 있다”고 폭로하기도 했다. 이는 이용자의 클릭이 돈(광고 수익)으로 치환되는 만큼 선정적이고 폭력적이며 극단적인 콘텐츠가 종종 오르는 현상과 무관치 않다.

여기에 가짜 뉴스가 개입할 때 더 심각해진다. 영국의 유럽연합(EU) 탈퇴 지지 단체(‘Vote Leave’)는 ‘EU 탈퇴로 누릴 천문학적 분담금의 혜택’ ‘난민의 대거 유입 가능성’ 등의 가짜 뉴스를 퍼뜨렸다. 영국 통계청과 재정연구원이 공식 해명했는데도 여론은 이를 인정하지 않았고 국민투표 결과 EU 탈퇴 결정으로 이어졌다. 지난 미국 대선에서도 페이스북에서 가장 많이 공유된 뉴스 5개 중 4개는 ‘교황이 트럼프 지지를 발표했다’(1위) 등 가짜 뉴스였다.

인터넷 시대가 열릴 때 사람들은 다양한 정보와 의견을 고루 접해 사회가 균형 있게 나아갈 것으로 믿었지만, 꼭 그렇지만은 않은 셈이다. 문제가 불거지면 플랫폼들은 알고리즘에 책임을 돌리고, 알고리즘 공개는 영업 비밀이라며 거부하고 있다.

이미 우리 삶을 지배하는 플랫폼을 벗어나기는 힘들 것이다. 인터넷 시대의 이상을 실현할 수 있을지는 결국 우리에게 달렸다. 근거 없어 보이는 소문의 출처를 확인하고 의도를 의심하며 우리가 다는 댓글이나 우리가 누를 ‘좋아요’의 영향까지 고려하는 등 미디어 문해력(文解力)이 절실한 이유다. 믿었던 알고리즘에 배신당할 때, 우리가 할 수 있는 건 플랫폼에 책임을 끈질기게 묻되 신경윤리학자 피터 라이너의 말을 떠올리는 것이다. “(알고리즘의 세계에도) 인지 편향이 존재한다는 것을 앎으로써 우리는 스스로 (디지털) 면역력을 가질 수 있다.”
 
김유영 디지털뉴스팀 차장 abc@donga.com
#인공지능#알고리즘#필터 버블#가짜 뉴스#네이버#유튜브
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0