[챗GPT 100일]
“생성형 AI는 참-거짓 판단 못해”
챗GPT 열풍에 대해 AI 한계 지적
세계적 언어학자 노엄 촘스키 미국 애리조나대 교수 겸 매사추세츠공대(MIT) 명예교수(사진)가 최근 전 세계를 휩쓸고 있는 생성형 인공지능(AI) 챗GPT 열풍에 대해 “기계가 인간의 뇌를 추월하는 날은 아직 동도 트지 않았다”고 지적했다.
촘스키 교수는 8일(현지 시간) ‘챗GPT라는 허상’이란 제목의 뉴욕타임스(NYT) 기고에서 “생성형 AI의 작동 원리는 인간이 언어를 사용하고 추론하는 방법과 크게 다르다”고 했다. 오픈AI의 챗GPT, 구글의 바드, 마이크로소프트의 시드니 모두 인간처럼 언어를 구사하고 생각하는 것처럼 보이지만 방대한 데이터를 학습해 가장 그럴듯한 답을 추론할 뿐이라는 것이다.
촘스키 교수는 “생성형 AI는 무엇이 옳고 그른지, 혹은 옳거나 옳지 않을 가능성이 있는지 판단할 수 없다”며 “지능으로서의 가장 핵심적인 능력이 결여되어 있다”고 평가했다. 현상에 대한 단순 묘사와 예측은 할 수 있어도 상황을 판단하거나 인과관계를 설명하는 데는 한계가 있다는 것이다. 촘스키 교수는 “생성형 AI의 예측은 심지어 성공하더라도 사이비 과학일 뿐”이라고 꼬집었다.
촘스키 교수는 인간의 정신에 대해선 “놀라울 정도로 효율적이고 심지어는 우아한 시스템”이라고 묘사했다. “생성형 AI는 ‘사과가 떨어진다’ 정도의 묘사를 하는 반면, 인간은 ‘사과가 중력 때문에 떨어졌고 중력이 아니었으면 떨어지지 않았을 것’이란 맥락에 대한 설명까지 나아간다.”
촘스키 교수는 “진정한 지성은 생각하고 표현하는 능력에서 나오며, 도덕적 사고를 할 수 있어야 한다”고 강조했다. 이어 생성형 AI의 윤리 논란을 언급하며 “이런 시스템의 비도덕성, 언어적 무능, 과학적 결함 등을 고려할 때 우리는 그들의 인기에 웃을 수도, 울 수도 없다”고 했다.
댓글 0