대화형 인공지능(AI) 서비스 프로그램인 ‘챗GPT’에 작년 한국 대선을 분석한 글을 써달라고 필자가 직접 요청해 봤다. 10초도 안 돼 A4 용지 한 장 분량의 글을 내놓았는데 결론이 엉뚱했다. 문재인 대통령이 홍준표 후보와의 대결에서 여유 있게 승리해 재선에 성공했다는 것이었다. 똑같은 질문을 다시 해봤다. 이번엔 문 대통령이 51.04%를 득표해 48.96%에 그친 안철수 후보를 이겼다고 답했다. 윤석열 대통령이 이긴 것 아니냐고 되물었더니 당시 윤석열은 후보가 아니었다고 답했다.
▷미국 스타트업 ‘오픈AI’가 지난해 12월 출시한 챗GPT는 요즘 압도적인 화젯거리다. 미국 의사고시, 변호사시험, 경영학석사(MBA) 등 전문직 시험도 통과하고 석사 수준의 논문, 의회 연설문도 척척 써낸다는 무용담 같은 얘기가 넘친다. 사용자가 잘못된 사실을 바탕으로 질문하면 그 오류를 지적하거나 노래 가사, 시 등 감성적인 글도 자유자재로 내놓는다. 챗GPT에 선수를 빼앗긴 구글은 곧 유사한 서비스를 제공하는 ‘바드’를 내기로 했고, 네이버도 상반기 중 ‘서치GPT’를 출시할 예정이다.
▷챗GPT가 화려하게 데뷔했지만 이면에 드리워진 그림자도 적지 않다. 데모 버전인 챗GPT는 2021년 자료까지만 학습돼 있어 최근 상황에 대해선 알지 못한다. 또 학습하지 않은 사실을 모른다고 하지 않고 억지로라도 답을 하도록 돼 있어 2022년 한국 대선 분석 글 같은 엉터리 답을 내놓을 가능성이 얼마든지 있다. 특히 의료나 교육 같은 분야에선 인공지능의 말을 멋모르고 믿었다간 심각한 결과를 초래할 수 있다. 최근 미국 의사가 환자의 연령, 성별, 증세 등을 챗GPT에 넣자 구체적 병명을 내놓았지만 잘못된 진단이었고, 근거로 제시한 연구 논문 역시 가짜였다는 사례도 있다.
▷챗GPT의 최고기술책임자(CTO)인 미라 무라티가 최근 타임지와의 인터뷰에서 “AI가 사실을 꾸며낼 수 있다”고 말한 것도 같은 맥락이다. 아직 언어 기반 모델의 AI가 가진 한계인 셈이다. 무라티 CTO는 나아가 나쁜 사람이 악용할 여지를 차단하기 위한 규제를 지금부터 시작해야 한다고 했다. 인간의 가치에 부합하도록 AI를 통제하려면 급속한 기술 발전의 속도에 발맞춘 AI 윤리와 규제가 반드시 필요하다는 경고인 셈이다.
▷2016년 혜성같이 등장한 알파고는 이세돌 9단을 꺾어 바둑계를 뒤흔들었다. 이후 많은 AI 바둑 프로그램이 등장해 인간을 실력으로 압도했다. 하지만 AI의 실력을 흡수한 인간의 실력도 진일보하고 있다. 챗GPT 같은 인공지능 서비스도 여러 문제점이 있으나 기술 진보로 하나씩 해결해 나간다면 인간의 삶을 근본적으로 바꿀 가능성을 보여주고 있다. 어떤 안전장치를 마련해 어떻게 활용하느냐가 관건이다.
댓글 0