챗봇 ‘이루다’가 남긴 과제
○ 편견·편향에 자유롭지 않은 AI
12일 이루다 개발사 스캐터랩은 실명 등 개인정보 유출 논란에 대해 “알고리즘으로 실명 필터링을 거쳤는데 문맥에 따라 이름이 남아 있는 부분이 있었다”고 인정했다. 앞서 이루다가 동성애, 장애인 등에 대한 혐오를 드러내 논란이 된 데 이어, 스캐터랩 직원들이 챗봇 개발 과정에서 수집된 특정인의 성적인 대화와 농담을 사내 메신저로 공유했다는 의혹까지 추가로 제기됐다.
해외에서는 AI 개발과 활용 과정에서의 윤리 문제가 수년 전부터 화두가 됐다. 마이크로소프트는 2016년 3월 AI 챗봇 ‘테이(tay)’를 출시했다가 16시간 만에 운영을 중단했다. 비속어와 인종·성 차별 발언을 되풀이해 학습한 테이가 “유대인이 싫다” 같은 혐오 발언을 쏟아냈기 때문이다. 2018년 아마존은 AI를 활용한 채용 시스템을 폐기했다. 남성 지원자가 다수였던 과거의 이력서 데이터를 학습한 AI가 여성 지원자를 차별하는 결과가 나타나서다. 프랑스의 한 헬스케어 기업이 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려해 논란이 되기도 했다.
○ 성숙한 활용 화두…투명성 확보, 인력 키워야
미국 구글에선 내부 직원들이 윤리적 위험성에 관한 의견을 내는 등 내부 논란이 벌어졌다. 소수자 차별, 기업윤리 문제 등에 대해 목소리를 높인 구글 직원들은 올해 초 노조를 결성하고 “‘악해지지 말자(Don’t be evil)’를 실천하는 데 주력하겠다”는 의지를 밝혔다.
하지만 정보기술(IT) 업계의 자체 노력만으로는 한계가 있다는 지적이 나온다. AI 활용 원칙에 대해 사회적으로 합의하고, 양질의 데이터 및 인력을 확보하는 등 구조적 여건을 개선하지 않으면 언제든 이루다 사태가 반복될 수 있다는 것이다.
현재 AI를 윤리적으로 활용하기 위한 기본원칙은 나와 있다. 2019년 10월 민간기구인 한국인공지능윤리협회가 AI 윤리헌장을 제정했고 정부도 지난해 12월 ‘AI 윤리기준’을 마련했다. 하지만 ‘인간의 존엄성’ ‘사회의 공공선’ 등을 위해 노력해야 한다는 선언적 수준에 그친다. 전문가들은 갈수록 다양해지는 AI 활용 상황에서 기본적인 윤리원칙이 어떻게 적용될 수 있을지 구체적인 가이드라인부터 마련해야 한다고 강조한다.
데이터를 관리 및 분석하고 AI 알고리즘의 감수성을 향상시킬 전문 인력의 확보도 시급한 과제다. 소프트웨어정책연구소에 따르면 2018∼2020년 국내에서 전문학사 이상 AI 인재 공급이 수요에 비해 1만 명가량 부족했다. 정규 교육을 받은 AI 인력이 부족하니 각 업체에서는 임시방편으로 사내 AI 인력 양성에 나서고 있는 상황이다.
인력 풀 자체가 부족하다 보니 이공계 및 남성 비중이 극단적으로 높아지는 등 개발 인력의 다양성을 확보하기 어렵다는 문제도 있다. 장병탁 서울대 컴퓨터공학부 교수(AI연구원장)는 “AI 개발팀이 이공계 출신 위주로 편향되다 보니 인권 감수성이 덜 다뤄진 측면도 있다. AI 교육 과정에서 인문사회적 소양을 갖춘 융합적 인재들을 적극 육성할 필요가 있다”고 강조했다.
이건혁 gun@donga.com·신동진·김성모 기자