[출판-인문학계 AI 활용 논란] 연구자 “논문요약 등에 챗GPT 필수”… 문장구조 다듬고 오자 확인에 사용 저작권 침해-오역 등 우려 목소리도… 학계 “합리적인 사용 방안 찾아야”
“챗GPT는 요즘 논문을 쓰는 젊은 연구자들 사이에선 ‘공동저자’나 다름없다.”
인문학 분야 연구자인 박모 씨(30)는 “해외 논문을 번역하거나 요약할 때 챗GPT 사용은 필수”라며 이렇게 말했다. 오픈AI의 생성형 인공지능(AI) 챗GPT가 2022년 11월 출시된 지 약 1년 만에 이공계뿐 아니라 인문학계에서도 활발히 활용되고 있다. 젊은 연구자들은 논문의 문장구조를 다듬는 것은 물론이고 오자를 거르는 데에도 챗GPT를 유용하게 사용하고 있다. 박 씨는 “논문 내용을 챗GPT에 전적으로 의존하기는 아직 허술한 점이 많다. 문서의 기본적인 틀을 잡아놓고 보조적으로 이를 활용하는 편”이라고 덧붙였다.
각종 통계 데이터 활용이 많은 사회과학 분야에서도 AI 사용은 필수가 되고 있다. 최동욱 상명대 경제금융학부 교수(한국경제학회 사무차장)는 “통계 프로그램을 돌릴 때 챗GPT를 활용해 실험용 데이터를 생성할 수 있다”며 “사람 손을 거치면 시간이 오래 걸리고 비용이 많이 들어 챗GPT가 이를 보완해 줄 수 있다”고 설명했다.
불특정 데이터를 학습한 생성형 AI를 연구에 사용할 경우 저작권 침해도 발생할 수 있다. 실제로 지난해 12월 미국 뉴욕타임스(NYT)는 “챗GPT의 AI 훈련에 자사(自社) 기사 수백만 개가 무단으로 사용됐다”며 오픈AI와 마이크로소프트(MS)를 상대로 뉴욕 맨해튼 연방지방법원에 소송을 제기했다. 문화체육관광부는 네이버 등 AI 사업자가 데이터를 쓰려면 저작권자에게 적절한 보상을 해야 한다는 정부 차원의 가이드라인을 최근 만들었지만, 현실적으로 무단 사용 여부를 가려내기는 쉽지 않다는 지적도 나온다.
학계에서 AI 활용을 현실적으로 막을 수 없는 만큼 합리적인 사용 방안을 찾아야 한다는 견해도 있다. 김현 한국학중앙연구원 교수(인문정보학)는 “인터넷에 이미 수많은 가짜 정보가 섞여 있지만 우리는 이 중 올바른 정보를 분별하며 사용하고 있다”며 “생성형 AI를 활용해 올바르게 지식을 탐구하는 방법론을 학생들에게 가르쳐야 한다”고 강조했다.
아직 학계에서는 AI 활용에 대한 뚜렷한 가이드라인이 없어 연구자들의 재량에 맡기고 있다. 구정우 성균관대 사회학과 교수는 “생성형 AI를 잘 활용하면 영어 번역 등에서 연구자들의 부담을 크게 줄일 수 있다”며 “도움이 될 수 있는 부분에선 적극 활용하되 저작권과 가짜 정보 등 문제가 생길 수 있는 부분은 보완해 나가야 한다”고 말했다.
사지원 기자 4g1@donga.com