송충현 산업1부 차장
모르는 걸 모른다고 이야기하기 어려운 건 비단 사람만이 겪는 상황은 아닌 듯하다. 챗GPT 등 생성형 인공지능(AI)을 써 본 많은 이용자들은 AI가 모르는 걸 아는 것처럼 말하는 상황에 당황한다. 이른바 AI의 ‘환각현상’이다. 이용자들의 요구에 가능한 한 ‘친절’하게 답을 내놓으려는 일종의 강박 섞인 AI의 노력이 부정확한 결과물을 내놓는 것이다.
GPT 3.5를 기반으로 했던 기존 챗GPT는 물론 14일(현지 시간) 오픈AI가 공개한 GPT 4 역시 이 같은 답변 오류에서 자유롭지 않다. 오픈AI는 GPT 4를 내놓으며 여러 전문적인 시험에서 인간 수준의 능력을 보여줬다고 평가했다. 사실에 입각한 답변을 내놓을 가능성을 비약적으로 높이고 대학 입학 자격 시험에선 상위 10%의 능력을 갖췄다고 했다. 하지만 GPT 4 역시 추리 관련 문제에 굉장히 그럴싸하고 성실한 오답을 내놓거나 곱하기 질문에 엉뚱한 답안을 들이민다.
누군가는 AI의 이런 오답 퍼레이드가 아직 사람에 한참 못 미치는 미숙한 AI의 현주소를 보여주는 거라고 설명한다. 하지만 이용자로부터 나쁜 피드백을 받지 않기 위해 임기응변식의 틀린 답을 내는 AI를 보고 있으면 왠지 으스스한 느낌이 든다. 문과적 감성의 기우겠지만, 이렇듯 틀린 답이라도 억지로 내놓으려는 AI의 실수가 인간의 실수와 크게 다르지 않아 보여서다. 물론 AI가 거대한 데이터베이스에서 어떤 정보를 조합해 어떤 과정으로 분석했기에 틀린 답을 만들어냈는지 이용자들이 잘 알지 못해 생긴 걱정일 수도 있다.
모라베크의 역설이 더 이상 통하지 않고 있다는 느낌도 든다. 모라베크의 역설은 사람에게 쉬운 건 컴퓨터에 어렵고, 사람에게 어려운 건 컴퓨터에 쉽다는 의미다. 아직 달리고 뛰어오르는 물리적인 영역에서 모라베크의 역설은 유효하다. 하지만 ‘말’의 영역에 있어선 사람에게 쉬운 게 생성형 AI에게도 점점 쉬워지고 있는 것 같다. AI가 점점 인간과 닮아간다.
송충현 산업1부 차장 balgun@donga.com