뉴스 트렌드 생활정보 International edition 매체

모르는 걸 “모른다” 하지 않는 인간의 불완전함 닮은 AI[광화문에서/송충현]

입력 | 2023-03-19 21:30:00


송충현 산업1부 차장

직장에서 일할 때 모르는 걸 모른다고 말하지 않고 대충 아는 것을 버무려 답해 본 경험이 누구나 한 번쯤은 있을 것이다. 답을 모르는 질문을 받으면 ‘알아보고 말씀드리겠다’고 하면 간단할 것을 상사의 불호령이 두려워, 혹은 모르고 있는 걸 들키는 게 창피해 얼버무리는 상황이다. 맞거나 틀릴 가능성은 반반인데 맞을 것에 ‘풀베팅’하는 이런 상황은 보통 한 번 혼날 걸 두 번 혼나는 새드엔딩으로 마무리된다.

모르는 걸 모른다고 이야기하기 어려운 건 비단 사람만이 겪는 상황은 아닌 듯하다. 챗GPT 등 생성형 인공지능(AI)을 써 본 많은 이용자들은 AI가 모르는 걸 아는 것처럼 말하는 상황에 당황한다. 이른바 AI의 ‘환각현상’이다. 이용자들의 요구에 가능한 한 ‘친절’하게 답을 내놓으려는 일종의 강박 섞인 AI의 노력이 부정확한 결과물을 내놓는 것이다.

GPT 3.5를 기반으로 했던 기존 챗GPT는 물론 14일(현지 시간) 오픈AI가 공개한 GPT 4 역시 이 같은 답변 오류에서 자유롭지 않다. 오픈AI는 GPT 4를 내놓으며 여러 전문적인 시험에서 인간 수준의 능력을 보여줬다고 평가했다. 사실에 입각한 답변을 내놓을 가능성을 비약적으로 높이고 대학 입학 자격 시험에선 상위 10%의 능력을 갖췄다고 했다. 하지만 GPT 4 역시 추리 관련 문제에 굉장히 그럴싸하고 성실한 오답을 내놓거나 곱하기 질문에 엉뚱한 답안을 들이민다.

GPT의 오답을 보고 있으면 무엇을 물어보든 우선 대답부터 내놓는 스타일의 사람이 겹쳐 보인다. 일을 잘하는 것처럼 보이려 그럴듯한 답을 내놓는 일꾼의 느낌(이런 스타일에 대한 동료들의 선호도는 논외로 치고)이랄까. 문제는 질문자가 일일이 확인하지 않는 이상 GPT의 엉터리 답변을 ‘정답’으로 철저히 믿게 될 수도 있다는 점이다. 오픈AI의 샘 올트먼 최고경영자(CEO)가 17일(현지 시간) 미 언론과의 인터뷰에서 AI가 대규모 허위 정보 유포에 사용될 수 있다는 점을 우려한 것도 비슷한 맥락으로 보인다.

누군가는 AI의 이런 오답 퍼레이드가 아직 사람에 한참 못 미치는 미숙한 AI의 현주소를 보여주는 거라고 설명한다. 하지만 이용자로부터 나쁜 피드백을 받지 않기 위해 임기응변식의 틀린 답을 내는 AI를 보고 있으면 왠지 으스스한 느낌이 든다. 문과적 감성의 기우겠지만, 이렇듯 틀린 답이라도 억지로 내놓으려는 AI의 실수가 인간의 실수와 크게 다르지 않아 보여서다. 물론 AI가 거대한 데이터베이스에서 어떤 정보를 조합해 어떤 과정으로 분석했기에 틀린 답을 만들어냈는지 이용자들이 잘 알지 못해 생긴 걱정일 수도 있다.

모라베크의 역설이 더 이상 통하지 않고 있다는 느낌도 든다. 모라베크의 역설은 사람에게 쉬운 건 컴퓨터에 어렵고, 사람에게 어려운 건 컴퓨터에 쉽다는 의미다. 아직 달리고 뛰어오르는 물리적인 영역에서 모라베크의 역설은 유효하다. 하지만 ‘말’의 영역에 있어선 사람에게 쉬운 게 생성형 AI에게도 점점 쉬워지고 있는 것 같다. AI가 점점 인간과 닮아간다.



송충현 산업1부 차장 balgun@donga.com