“챗GPT도 다른 인공지능(AI) 대형 언어모델(LLM)과 마찬가지로 문제를 가지고 있습니다. 사실을 지어낼 수 있다는 점입니다.”
챗GPT를 개발한 스타트업 오픈AI의 미라 무라티 최고기술책임자(CTO)는 5일(현지 시간) 미국 시사주간지 타임과의 인터뷰에서 이렇게 말했다. 오픈AI에서 챗봇(무인 대화 서비스) 챗GPT를 포함해 LLM 기술 개발을 총괄하고 있는 무라티 CTO가 AI 기술의 문제점을 솔직히 공개한 것이다.
챗GPT의 충격파가 AI 시대를 빠르게 앞당길 것으로 예상되는 가운데 AI가 가짜 정보나 뉴스를 걸러내지 못한 채 이용자들에게 제공할 위험이 있다는 지적이 나온다. 무라티 CTO는 “AI는 오용되거나 이용자들이 악용할 수 있다”고 경고했다.
무라티 CTO는 AI 기술, 서비스의 고도화로 발생하는 문제를 해결하기 위해 “사회의 더 많은 개입이 필요하다”고 했다. AI를 둘러싼 새로운 윤리 기준이나 철학을 재정립하기 위해 모든 이해관계자가 지혜를 모아야 한다는 것이다. 이에 따라 각국 규제기관의 관련 논의에도 불이 붙을 것으로 예상된다.
AI 규제 논의
챗GPT, 2021년까지 데이터 기반… 최신 지식엔 잘못된 답변 가능성 저작권 침해―인종 차별 표현도… 각국 “견고한 윤리 지침 마련 필요”
무라티 오픈AI CTO의 우려처럼 AI 기술과 서비스가 사회에 나쁜 영향을 주는 사례는 계속해서 나타나고 있다. 1억 명 이상의 월 실사용자를 모은 챗GPT의 부작용으로 최근 정보기술(IT) 업계에서 주로 언급되는 것이 ‘베끼기 논란’이다. 챗GPT가 정치, 사회, 경제 등 모든 분야에서 전문가 수준의 정제된 줄글을 결과물로 내놓자 미국의 대학 등에선 학생들이 검색한 내용을 그대로 과제물로 제출하는 등의 악용 사례가 이어졌다.
챗GPT처럼 인간 수준의 사고 능력을 갖춘 AI 기술, 서비스에 대비하지 못한 학계와 교육기관은 긴급하게 대응에 나섰다. AI 기술을 연구하는 국제머신러닝학회(ICML)조차 챗GPT 등장 이후 “대형 언어모델에 의존해 생성된 줄글을 논문 작성에 활용하는 것을 금지한다”는 지침을 발표했다. 프랑스 파리의 시앙스포는 학생들의 챗GPT 사용을 제한했으며 미국 뉴욕시도 공립학교에서 오픈AI의 접속을 차단했다. 한국지능정보사회진흥원(NIA)은 최근 보고서를 통해 “챗GPT 등의 활용으로 교육 격차, 학습능력 저하 등의 문제가 나타날 수 있다”며 “AI는 인간 교사의 보완재로 활용하는 것이 바람직하다”고 조언했다.
글로벌 IT 업계는 AI 기술, 서비스의 고도화로 발생할 부작용이 베끼기 논란에서 그치지 않을 것으로 보고 있다. 실제 챗GPT에선 잘못된 정보를 AI가 이용자에게 답변하는 사례가 심심치 않게 발견되고 있다. 미국 응급의학과 전문의 제러미 파우스트가 지난달 11일 공개한 챗GPT 이용 경험에 따르면 환자의 연령, 성별, 간단한 증세 몇 가지를 써내자 AI는 구체적인 병명까지 답했다. 일반인은 쉽게 알아듣기 어려운 의학 용어를 활용해 진단 결과를 보여줬다. 이는 전문가인 의사가 봤을 때 잘못된 처방과 진단으로 확인됐다. 근거를 챗GPT에게 묻자 AI는 연구 논문을 보여줬는데 그것 역시 가짜였다.
미국 외 다른 국가의 현직 대통령이나 총리 이름을 물었을 때 전임자로 답하는 사례도 발견됐다. 챗GPT는 오픈AI가 1750억 개의 매개 변수를 기반으로 학습시킨 대형 언어모델 ‘GPT-3.5’를 기반으로 한다. 2021년까지 학습한 데이터를 기반으로 이용자의 질문에 대답하는 방식으로 서비스를 제공하고 있다. 최신 뉴스나 지식을 물어보면 과거 데이터에 기반한 잘못된 정보를 표출할 가능성이 크다. 한 국내 AI 전문가는 “챗GPT에게 새로운 지식을 학습시킬 창구가 없는 상황”이라며 “확실한 답을 찾지 못하면 억지로 말을 만들어내려는 경향이 있어 유의해야 한다”고 지적했다.
AI가 혐오 표현으로 특정 인종이나 계층을 차별하거나 저작권을 침해하는 수준으로 정보를 도용하는 것도 극복해야 할 문제점으로 꼽힌다. 미국에서도 마이크로소프트(MS)의 챗봇이 소수자 혐오 발언을 해 논란이 됐고 프로그래밍을 위한 자동 코드 완성 서비스가 저작권 침해 문제로 소송을 당하기도 했다.
챗GPT를 개발한 오픈AI도 전 세계에서 나타나고 있는 AI의 부작용 사례와 논란을 예의 주시하고 있다. 뉴욕타임스(NYT)에 따르면 샘 올트먼 오픈AI 최고경영자(CEO)는 회사 내부에 챗GPT의 성과와 기술력을 외부에 과시하지 못하도록 경고했다. 오픈AI는 챗GPT 출시 5일 만에 이용자가 100만 명을 넘어섰다고 발표한 뒤 구체적인 수치를 공개하지 않고 있다. 올트먼 CEO를 포함한 오픈AI 경영진은 직원 375명이 근무하는 스타트업이 홀로 AI 규제 방안이나 윤리 기준 마련을 논의하는 것을 버거워하는 것으로 알려졌다. NYT는 “올트먼 CEO는 챗GPT의 성과를 지나치게 드러내는 일이 새로운 논란을 일으키거나 시장의 기대감을 과도하게 키울 것을 우려하고 있다”고 전했다.
AI를 둘러싼 새로운 규제와 윤리 기준의 논의 수준은 아직 전 세계적으로도 초기 단계다. 미국 백악관 과학기술정책국(OSTP)은 지난해 10월 AI 기술 개발과 이용 과정에서 발생할 수 있는 부작용을 최소화하기 위한 ‘윤리 지침’을 발표했다. AI 관련 문제를 예방할 수 있는 최소한의 원칙을 마련한 것이다. 다만 법적 효력이나 구속력이 없어 한계가 있다는 지적을 받았다. 한국 정부는 2020년 12월 ‘국가 인공지능 윤리 기준’을 발표했는데 기업이나 이용자를 대상으로 한 구체적인 규제 내용 등은 담겨 있지 않다.
티에리 브르통 유럽연합(EU) 내수시장 담당 집행위원은 3일 로이터를 통해 “AI 기술은 기업과 시민에게 큰 기회를 제공하지만 위험을 초래할 수도 있다”며 “견고한 규제 틀이 필요한 시기”라고 말했다.
댓글 0