피부색이 검을수록, 남자보다 여자일수록 AI 얼굴인식 기능의 오류 발생률은 더 높아진다는 연구 결과가 발표됐다.
MIT대 미디어랩의 조이 부올라미니 연구원의 최신 논문을 인용해 “현실 세계의 편견이 인공지능으로까지 확산되고 있다”고 더버지를 비롯한 미국 언론매체들이 11일(현지시각) 보도했다.
연구원들은 아프리카 3개국, 유럽 3개국에서 다양한 성별과 피부 유형을 가진 1270명의 대상자를 선정해 이들의 이미지로 얼굴 데이터 표본을 만들었다.
마이크로소프트, IBM, 중국의 메그비 총 3개의 AI 얼굴인식 소프트웨어를 이용해 실험한 결과, 3개의 소프트웨어 모두 백인 남성의 얼굴은 오류 발생률 1%로 아주 정확하게 인식했다.
백인 여성의 경우 오류 비율이 최고 7%, 흑인 남성의 경우 12%까지 올라갔다. 흑인 여성을 대상으로 한 인식 실험에서는 최고 35%까지 오류율이 높아졌다.
전문가들은 AI를 구성하는 알고리즘이 매우 다양한 만큼, AI를 훈련시킨 데이터에 따라 그 결과의 값이 크게 달라질 수 있다고 지적한다. 오늘날 광범위하게 사용되는 얼굴인식 데이터 세트의 75% 이상이 남성이고, 80% 이상이 백인이기 때문에 오류 비율이 상대적으로 적을 수밖에 없다는 것이다.
실제 구글은 2015년 이미지 인식 사진 앱 출시 초기에 흑인 미국인 남성을 고릴라로 인식해 논란을 일자 공식으로 사과한 바 있다.
IT 전문 매체 더버지는 "알고리즘이 의도적으로 편향된 것은 아니지만, 이번 연구는 편향성을 제거하기 위해 더 많은 작업을 수행해야 한다는 것을 보여준다"고 지적했다.
댓글 0