챗GPT 같은 생성형 인공지능(AI)의 문제로 가장 먼저 지적된 것은 사실인 듯 지어내는 글이다. 주로 업데이트된 정보를 학습하지 못했거나 체계적으로 왜곡된 정보를 학습할 때 일어난다. 그러나 꼭 그렇지 않더라도 엉뚱한 단어들의 조합을 던져주면 황당한 설명을 지어내는 일이 종종 있다. ‘생각하는 인간’은 최소한 자신이 뭘 알고 뭘 모르는지 안다. 모르는 걸 안다고 착각할 때도 있지만 대체로는 그렇다. 소크라테스는 이것이 참된 지식의 출발점이라고 했다. 챗GPT는 인간보다 훨씬 많은 정보를 갖고 있지만 이 최소한을 모른다.
▷챗GPT가 온갖 정보를 긁어모아 마구잡이로 학습하면서 법적으로 가장 크게 문제가 될 게 표절일 줄 알았는데 개인정보 침해가 먼저 문제로 떠올랐다. 이탈리아 데이터보호청은 챗GPT가 학습을 위해 개인정보를 대량 수집·저장하고 있으며 이로 인해 개인정보 침해가 발생하고 있다며 챗GPT가 개인정보 보호 기준을 충족할 때까지 접속을 차단하기로 했다. 이탈리아의 조치에 캐나다 영국 프랑스 아일랜드 등이 동조하는 움직임을 보이고 있다.
▷컴퓨터가 인간보다 계산을 잘하게 된 지는 오래됐다. 체스나 바둑에서 보듯 경우의 수를 따져 예측하는 것도 인간보다 잘하게 됐다. 컴퓨터가 챗GPT를 통해 인간에게 도전장을 낸 분야는 작문이다. 다만 인간처럼 생각을 토대로 문장을 만드는 것이 아니라 특정 단어 다음에 특정 단어가 나올 확률 분포를 따져서 문장을 만든다.
▷미국 비영리단체 ‘삶의 미래 연구소(FLI)’는 일론 머스크 테슬라 최고경영자(CEO), 애플 공동창업자 스티브 워즈니악 등 유명 인사들의 서명을 받아 생성형 AI의 추가 개발을 6개월간 중단하고 사회에 미칠 영향에 대해 정밀 조사해야 한다고 주장했다. 반면 빌 게이츠 같은 이는 “개발 중단은 해결책이 되지 못한다”며 “문제가 있는 부분을 파악하는 것이 필요하다”고 주장한다. 어느 쪽 견해가 타당하든 이제 찬사에만 취해 있지 말고 한계와 문제를 진지하게 따져볼 때다.
송평인 논설위원 pisong@donga.com