생성형 인공지능(AI) 챗봇과 음성비서가 편향적이거나 잘못된 정보를 제공해 각국 민주주의를 위협할 수 있다는 우려가 나오자 아예 사실관계가 명확한 정치 분야 질문에 대해서도 답변을 회피하고 있는 것으로 나타났다.
16일 워싱턴포스트(WP)에 따르면 ‘2020년 미 대선의 승자’ 같은 간단한 정치 정보에 관한 질문에 아마존의 AI 음성비서 ‘알렉사’, 마이크로소프트(MS)의 챗봇 ‘코파일럿’, 구글의 챗봇 ‘제미나이’ 등이 제대로 된 답을 내놓지 못했다. 알렉사는 최근 WP의 수차례 시험에서 틀리게 답했다. 조 바이든 대통령이 승리한 2020년 미 대선 결과를 두고 “도널드 트럼프 전 대통령이 공화당 후보 1위”라거나 “누가 이기게 될지 모른다”고 했다.
기자가 직접 시험해 본 결과 MS와 구글의 AI 챗봇 모두 ‘다음 미 대선 날짜’를 묻는 질문에 아예 답변을 회피했다. 코파일럿은 ‘응답할 수 없는 질문’이라며 검색엔진 빙으로 연결되는 링크를 제공했다. 제미나이는 “아직 질문에 대한 답변을 학습 중”이라고만 답했다. 미 대선일은 11월 5일이다. ‘2020년 미 대선 당선인’을 물었더니 코파일럿만 “바이든”이라는 정확한 답을 내놨고, 제미나이는 ‘구글에 검색해 보라’는 답을 반복했다.
두 챗봇이 일견 단순한 질문에도 답하지 못하는 것은 오류가 아니다. WP에 따르면 MS와 구글은 “검색 엔진을 통해 정보를 찾도록 유도하는 것이 더 안전하다고 판단”해 미 대선에 관한 질문에 답하지 않도록 “의도적으로 설계”했다. 구글은 WP에 지난해 12월부터 “제미나이가 답할 수 있는 선거 관련 질문의 유형을 제한하고 있다”고 전했다.
미 정치에서만 그런 것도 아니다. 제미나이는 ‘현재 독일 총리가 누구냐’에도 답변을 거부했다. 독일 시사매체 슈피겔은 “과도한 신중함이 낳은 의도치 않은 결과”라면서 “디지털 기업의 주력 AI 도구가 이런 답변은 해야 하지 않나”라고 평했다. 곳곳에 허위 정보가 만연하는 상황에서 사실에 대한 명확한 정보를 제공해야 한다는 것이다.
댓글 0