▷최근 국내에서 AI 챗봇 서비스 ‘이루다’가 장애인, 동성애자 등 사회적 소수자에 대한 차별적인 표현을 한 것이 논란이 돼 서비스를 잠정 중단하기로 했다. 이 서비스는 사용자들과 대화를 하면서 배우는 딥러닝 기술을 이용한다고 한다. 그런데 잘못된 내용을 학습한 탓인지 의도치 않은 방향으로 작동한 것으로 보인다. 20세 여성의 인격을 기반으로 개발됐다는 이루다를 대상으로 성적인 표현을 하는 이용자가 있다는 점도 논란거리다.
▷해외에서도 AI 서비스가 종종 논란이 되고 있다. 2016년 마이크로소프트(MS)가 출시한 AI 챗봇 ‘테이’는 대화 과정에서 “난 유대인이 싫다”는 등 인종차별 발언을 해 서비스가 중단됐다. 이루다 사례를 연상케 한다. 최근 구글의 AI 전문가가 “구글의 AI 기술이 성적·인종적으로 편향돼 있다”는 문제를 제기하면서 논쟁이 붙은 것을 보면 여전히 해외 대형 IT업체들도 AI를 온전하게 구현하고 있지는 못한 것 같다.
▷공정하고 차별 없는 AI 서비스를 만드는 책임은 AI가 아니라 사람에게 있다. AI는 알고리즘과 데이터를 근간으로 작동하기 때문이다. 미 경제 전문지 포브스는 “사람들은 AI 시스템에서 나온 결과를 보곤 ‘AI가 편향됐네’라며 놀라지만 이런 결과를 만들어낸 것은 전적으로 사람”이라고 지적했다. 핵 기술로 원전에서 전기를 생산할 수도 있고, 핵폭탄을 제조해 수많은 인명을 살상할 수도 있듯이 새로운 기술이 어떻게 사용될지는 사람에게 달렸다.
장택동 논설위원 will71@donga.com