일론 머스크의 인공지능(AI) 기업 xAI가 만든 AI챗봇 ‘그록(Grok)’이 도널드 트럼프 공화당 대선 후보 피격 사건 직후 잘못된 내용의 뉴스를 생성해 논란이 일고 있다. AI가 잘못된 정보나 허위 정보를 제공하는 ‘할루시네이션(Hallucination·환각 현상)’이 발생한 것이다. 정보기술(IT) 업계에서는 환각 현상이 생성형 AI의 신뢰 문제로 이어질 수 있다는 우려가 커지고 있다.
17일(현지 시간) 미국 월스트리트저널(WSJ)에 따르면 그록은 13일 발생한 트럼프 후보 피격 사건 직후 “카멀라 해리스 부통령이 총에 맞았다”는 제목의 뉴스를 내놨다. 그록은 총격범인 토머스 매슈 크룩스의 이름을 잘못 표기했고, 크룩스가 극단적 이념 집단 소속이라는 확인되지 않은 정보를 담은 기사도 게재했다.
제목을 이상하게 붙인 기사도 있었다. 그록은 한 기사를 요약하면서 제목을 “트럼프 집회에서 ‘나 홀로 집에 2’ 배우 총격?”이라고 달았다.
미국 전기차 업체 테슬라의 최고경영자(CEO)인 머스크는 지난해 11월 AI 스타트업 xAI를 통해 그록을 출시했다. 챗GPT 등에 대항하기 위해서다. WSJ는 “조 바이든 미국 대통령이 트럼프와 해리스를 혼동했던 사례와 관련해 일부 X(옛 트위터) 사용자들이 이를 비꼬는 것에서 비롯된 오류로 보인다”고 전했다. 그록은 X에 있는 콘텐츠를 중심으로 기사를 생성해 내는데 이 과정에서 오류가 발생했다는 것이다.
이 같은 생성형 AI의 환각 현상 논란은 끊이지 않고 있다. IT 매체 엔가젯에 따르면 이미지 생성형 AI 서비스 ‘미드저니’에 미국 차기 대통령의 이미지를 요청하자 트럼프의 모습을 생성했다. 미드저니가 미 대통령 선거를 앞두고 혼란을 막기 위해 바이든과 트럼프의 이미지 생성을 차단하겠다고 발표한 직후 일이다.
구글은 AI 오류 문제에 대해 AI 답변량을 줄이는 방식으로 대응하고 있다는 의혹을 받고 있다. 구글은 5월 연례 개발자회의에서 공개한 AI 개요 서비스가 엉뚱한 대답을 여러 차례 내놓으면서 뭇매를 맞았다. “사람이 하루에 얼마나 많은 돌을 먹어야 하는가”라는 물음에 구글 AI 개요 서비스는 “버클리 캘리포니아대 지질학자들에 따르면 하루에 최소 하나의 작은 돌을 먹어야 한다”고 답했다. 구글이 조치에 나서면서 오답 정도는 줄었지만, 질문에 대한 답변 개수가 줄어들면서 서비스 자체가 축소된 것 아니냐는 지적이 나왔다.
정보통신 업계 관계자는 “초기 서비스에서는 오류가 있을 수 있지만, 환각 현상이 계속되면 AI 자체의 신뢰 문제로 이어질 수 있다”며 “이는 AI 시장 성장과도 연결되는 문제”라고 말했다.
댓글 0