[단독]“챗GPT, 자의식 없어… ‘정보 판단’은 인간의 몫으로 남겨야”

  • 동아일보
  • 입력 2023년 2월 22일 03시 00분


코멘트

[AI 충격파] 세계적 과학학술지 ‘네이처’ 캠벨 총괄 편집장, ‘AI챗봇 시대’ 조언
영어권-남성에 편중됐던 학술논문, AI 덕에 개방성-다양성 확대될 것
정보 오염 가능성 항상 인지해야… 표절-가짜 논문 대비책 마련 시급

20일 대전 유성구 기초과학연구원(IBS)을 방문한 필립 캠벨 네이처 총괄 편집장이 본보와 인터뷰를 하고 있다. 9년 만에 한국을
 찾은 그는 오픈AI가 개발한 챗봇형 AI인 ‘챗GPT’ 사용에 대한 네이처의 입장을 설명했다. 대전=최혁중 기자 
sajinman@donga.com
20일 대전 유성구 기초과학연구원(IBS)을 방문한 필립 캠벨 네이처 총괄 편집장이 본보와 인터뷰를 하고 있다. 9년 만에 한국을 찾은 그는 오픈AI가 개발한 챗봇형 AI인 ‘챗GPT’ 사용에 대한 네이처의 입장을 설명했다. 대전=최혁중 기자 sajinman@donga.com
“(오픈AI의 인공지능 챗봇) ‘챗GPT’를 사용할 때 가장 중요한 것은 ‘판단’에 대한 몫은 인간에게 남겨두는 것입니다. 이 몫을 자꾸 인공지능(AI)에게 맡기려고 하니 문제가 생기는 것입니다.”

20일 대전 유성구 기초과학연구원(IBS)을 방문한 세계적인 과학 학술지 ‘네이처’의 필립 캠벨 총괄 편집장(72)은 과학계는 물론이고 인류가 챗GPT와 같은 AI를 받아들일 때 가져야할 자세에 대해 이렇게 말했다. 정보를 수집하거나 새로운 연구 주제를 찾는 데 챗GPT를 유용하게 활용할 수 있지만 정보의 선택이나 판단까지 AI에 맡겨서는 안 된다는 의미다.

캠벨 총괄 편집장은 1995년부터 2018년까지 23년간 네이처의 편집장으로 재임했다. 이후 현재까지 네이처를 출판하는 스프링어 네이처의 총괄 편집장을 맡고 있다. 2014년 이후 9년 만에 학술 교류를 위해 한국을 방문한 캠벨 총괄 편집장은 “IBS 연구자들과의 대화에서도 챗GPT를 어디까지 수용해야 하느냐가 큰 화두였다”고 했다.

지난해 11월 말 챗 GPT가 등장한 이후 AI가 사람처럼 대화하면서 수준 높은 글을 작성하는데 대한 충격이 전 세계에 퍼지고 있다. 챗GPT를 적용한 마이크로소프트의 ‘빙 챗봇’이 자의식을 가진 듯한 답변을 내놓은 점도 논란이 됐다. 캠벨 편집장은 이에 대해 “AI학계의 권위자들은 챗GPT가 자의식을 가지고 있다고 생각하지 않는다”며 “정보의 선별이나 진실을 확인하는 것은 인간이 해야 할 몫”이라고 강조했다.

과학지식 생산에서 챗GPT 사용을 얼마나 허용해야 하는지에 대한 논의도 이어지고 있다. 챗GPT를 사용하면 논문에 대한 신뢰도가 떨어질 것이라는 의견과 챗GPT를 잘 활용하면 오히려 논문의 질이 높아질 수 있다는 의견이 팽팽히 맞서고 있다. 캠벨 편집장은 “앞으로 챗GPT를 쓰지 않기는 어려울 것이다. 이미 일어난 일이고, 과학계에 도움이 될 부분도 많다고 생각한다”며 “수년 걸리는 연구 과정을 AI를 이용해 빠르게 수행하는 게 이미 입증됐기 때문에 유용하게 사용될 것”이라고 말했다.

그는 특히 챗GPT가 학술지의 ‘개방성’에 기여할 수 있다는 점에 동의했다. 현재 대다수의 학술지는 영어권 나라의 논문 비중이 높고 여성보다는 남성 저자의 비중이 높은 ‘편향성’을 띠고 있다. 챗GPT는 그간 데이터에 접근하기 어려웠던 나라나 영어가 모국어가 아닌 연구자에게 공평한 기회를 제공할 수 있다는 것이 캠벨 총괄 편집장의 생각이다. 그는 “과학 학술지에서 ‘다양성’은 곧 ‘경쟁력’이기 때문에 이런 관점에서 챗GPT가 긍정적인 영향을 줄 수 있다”고 강조했다.

다만 챗GPT의 사용을 잘 ‘관리’하는 문제가 남아있다. 캠벨 총괄 편집장은 “연구자들은 챗GPT가 제공하는 정보가 오염됐을 가능성을 항상 인지하고 있어야 한다”고 강조했다. 챗GPT와 같은 생성 AI는 제공하는 정보의 출처를 파악할 수 없다. 챗GPT에게 논문을 쓰라고 요청하면 가상의 참고문헌(레퍼런스)을 만들어내기도 한다. 이런 기능은 논문 표절과 가짜 논문으로 이어질 수 있다. 네이처는 이에 대한 대비책을 마련 중이라고 했다.

네이처는 챗GPT의 남용을 막기 위해 최근 ‘AI 스페셜리스트’라는 직군을 신설했다. 논문의 표절을 찾아내는 AI, 학술적으로 의미가 있는 연구인지 검토해줄 동료 연구자를 찾는 AI를 개발 및 관리한다. 챗GPT가 사용된 논문이 학술지 게재에 적합한지를 판단하는 데 활용하겠다는 계획이다.

자체적으로 챗GPT가 쓴 줄글을 찾아내는 일종의 ‘안티 GPT’ 프로그램도 개발 중이다. 캠벨 총괄 편집장은 “외부에서 개발한 (안티 GPT) 프로그램도 적극 활용해 검증 시스템을 마련할 예정”이라고 했다.

맥덜리나 스키퍼 네이처 현(現) 편집장도 본보에 보낸 이메일에서 “과학 학술지가 할 수 있는 일은 챗GPT 사용에 대한 윤리적인 가이드라인을 명확하게 제시해 혼란을 줄이는 것”이라고 했다.

캠벨 편집장은 네이처가 향후 생성 AI 기업들과의 관계를 어떻게 구축해 나갈지에 대해서는 아직 신중한 입장이라고 했다. 최근 챗GPT 개발사인 오픈AI를 포함한 여러 생성 AI 기업이 지적재산권 침해를 이유로 ‘줄소송’을 당하면서, 학술지들의 유료 논문들도 무단으로 사용된 것이 아니냐는 가능성이 제기됐다. 지난달 17일 세계 최대 사진 판권업체인 게티이미지는 영국의 생성 AI 기업 스태빌리티AI가 유료 사진 1200만 개를 무단으로 사용했다며 1조8000억 원(약 2332조 원) 규모의 소송을 제기했다.

캠벨 총괄 편집장은 “오픈AI가 챗GPT를 학습하는 과정에서 불법적으로 논문을 활용했다면 사내 법무팀에서 검토를 하겠지만 아직까지 그런 움직임은 없는 것으로 알고 있다”며 “구체적인 대응 방안이나 명확한 정책이 마련된 것은 아니지만 추후 고민해 볼 문제라고 본다”고 했다.

필립 캠벨은 누구
● 영국 브리스틀대 항공공학 학사, 퀸메리 런던대 석사, 레스터대 박사
● 1979∼1988년 네이처 물리 과학 에디터
● 1988∼1995년 물리학 학술지 ‘피지컬 월드’ 초대 편집장
● 1995∼2018년 네이처 편집장
● 2018년∼현재 스프링어 네이처 총괄 편집장
#필립 캠벨#챗gpt#네이처#ai챗봇 시대
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스