2022년 11월 말 챗GPT(ChatGPT)가 나타난 뒤 약 2년이 지났다. 그 사이 생성형 AI의 영향력은 폭발적으로 커졌다. 시장조사 기관인 베인앤드컴퍼니는 9월 AI 시장 규모가 2027년 7800억에서 9900억 달러(약 1090조~1390조 원)가 될 것이라고 예측하기도 했다.
당연히 국내 언론사와 기자도 생성형 AI라는 메가 트렌드의 영향을 벗어날 수 없었다. 언론사가 직접 나서 생성형 AI를 업무에 적극적으로 도입한 곳도 있고, 생성형 AI가 기자의 업무를 대체할 수 있다며 자체 서비스를 내놓은 스타트업도 있다.
국내외 언론들은 2000년대 중반 웹 2.0 시대, 2010년대 초반 스마트폰 시대 등 디지털 분야의 혁신 흐름을 적절히 따라가지 못했다. 2010년대 중반 이후부터 디지털 혁신 작업을 꾸준히 이어가고 있지만, 규모와 속도는 저마다 다르다.
● 섣부른 기술 도입보다 ‘가이드라인’ 먼저
지난달 25일(현지 시간) 영국 런던 가디언 본사에서 크리스 모란(Chris Moran) 가디언 편집부문 혁신 총괄(head of editorial innovation)이 가디언의 생성형 AI 활용 전략에 관해 설명하고 있다. 런던=권기범 기자 kaki@donga.com
가디언은 생성형 AI 도입 여부를 검토하며 수면 아래에서 치열하게 고민했다. 가디언은 기술 검토 단계에서 생성형 AI가 저작권 등 언론 윤리에 영향을 미칠 수 있다고 보고 ‘반짝이는 새 제품’을 출시하는 대신 내부 실험에 돌입했다.
크리스 모런(Chris Moran) 가디언 편집부문 혁신 총괄(head of editorial innovation) 등의 주도로 내부에서만 실험할 수 있는 작은 팀을 꾸리기로 한 것이다. 모런 총괄은 “생성형 AI의 기술적인 부분을 들여다보니 저작권 등에 있어 윤리적 고려 사항이 필요하다는 것을 알게 됐다”며 “우리가 앞서 있다는 걸 보여주기 위해 최대한 빠르게 뭔가를 출시해야 한다는 압박감을 느끼지 않도록 해준 우리 조직을 자랑스럽게 생각한다”고 말했다.
BBC도 대부분의 직군이 모여 내부 논의를 거쳐 1만 자 분량의 가이드라인을 만들었다. “너무 오래 걸렸다”라는 평이 나올 정도로 치열한 논의였다. ITN도 가이드라인 제작부터 시작했다. 태미 호프먼(Tami Hoffman) ITN 뉴스 배급 및 커머셜 혁신 디렉터는 “우리는 AI가 기술과 엔지니어링팀만의 문제가 아니라는 점을 강조하려고 정말 큰 노력을 기울였다”며 “법무팀, 마케팅팀, 편집국 등 모든 팀에 걸친 이슈”라고 설명했다.
● 인간의 책임과 투명성 강조
그렇게 만들어진 AI 활용 가이드라인에는 ‘사명(mission) 명시’ ‘정확성과 책임소재 명시’ ‘투명성 확보’ ‘편견 완화’ 등의 공통점이 있었다.왜 생성형 AI를 뉴스룸에 도입해야 하는지 분명한 이유와 목표를 제시해야 하고, 환각 현상을 최소화하고 이에 대한 책임이 인간에게 있음을 분명히 해야 한다는 것이다. 또한 생성형 AI를 활용했을 때는 어떤 도구를 어떻게 활용했는지 독자들에게 명시적으로 밝혀야 한다는 것이다.
무엇보다 ‘휴먼 인 더 루프(Human in the Loop)’ 원칙이 지켜져야 한다는 데 공감했다. ‘휴먼 인 더 루프’란 AI 개발 과정에서 인간이 적극적으로 참여해야 한다는 접근 방식이다.
이런 원칙 없이 섣불리 생성형 AI를 도입했던 실패 사례가 미국의 IT 전문매체 씨넷(CNET)의 경우다. 씨넷은 2022년 11월 이후 몇 달간 약 70건의 기사를 생성형 AI를 활용해 작성했었는데, 2023년 초 이런 사실이 뒤늦게 알려지면서 강한 비판을 받았다.
가디언이 2023년 6월 내놓은 생성형 AI 활용의 세 가지 원칙은 ‘독자의 이익을 위해서만 사용할 것’ ‘사명(mission), 직원, 더 넓은 조직의 이익을 위해서만 사용할 것’ ‘콘텐츠를 만들고 소유하는 사람들을 존중할 것’이다.
런던 랭험 거리에 위치한 BBC 브로드캐스팅 하우스(Broadcasting House) 입구. 런던=권기범 기자 kaki@donga.com
이윤녕 BBC 선임기자는 “(현장에서는) 뉴스에서는 쓰지 않는다. AI에 관한 뉴스를 다룰 때만 예외적으로 허용되고 있다”며 “철저한 감독과 허가를 받아야 한다”고 설명했다.
ITN의 가이드라인에서는 ‘악당(rogue)이 되지 말 것’이라는 내용이 눈에 띈다. 기자들이 AI 활용 프로세스를 관찰하고, 생성형 AI를 사용하는 인간에게 최종 책임이 있다는 점을 명확히 한 것이다.
태미 호프먼(Tami Hoffman) ITN 뉴스 배급 및 커머셜 혁신 디렉터. 런던=권기범 기자 kaki@donga.com
● 내부에서는 치열한 실험 중
그렇다고 이들 매체가 무작정 조심스러운 태도만 취하고 있는 것은 아니다. 가디언, BBC, ITN 등 내부에서 생성형 AI를 활용한 프로젝트를 조심스럽게 진행하고 있다고 설명했다. 워싱턴포스트가 이달 7일 선보인 ‘포스트 AI에게 물어보세요(Ask the Post AI)’ 같은 챗봇 서비스, 기사 요약, 아카이브 관리 효율성 향상 등이 시도되고 있었다. 일부에서는 이미지 인식 기능 등을 활용하는 방안도 검토되고 있었다.
파이낸셜타임스(FT)는 3월 유료 구독자를 위한 챗봇을 실제로 내놓기도 했다. FT의 기사를 학습해 답변하는 방식이다. 다만 설명이 어렵거나 법적 문제가 있는 경우를 피하도록 했다. 투명성을 보여주기 위해 검색 작업 시 AI가 수행하는 작업 내용을 함께 제공하는 방식을 택했다. FT 관계자는 “내부 테스트-일부 고객-유로 독자 공개 순으로 단계별 실험을 거치는 등 신중하게 접근했다”고 설명했다.
런던 프라이데이 거리에 있는 파이낸셜타임스 본사. 파이낸셜타임스는 2019년 옛 사무실이었던 브래큰 하우스가 있던 이곳으로 30년 만에 재이전했다. 런던=권기범 기자 kaki@donga.com
대부분 매체의 실험은 챗GPT나 클로드, MS 코파일럿 등 서비스를 기반으로 개선하는 방식(Build Upon)으로 프로젝트를 추진하고 있었다. 비용 부담과 성능 우려가 있는 직접 구축 방식은 선호하지 않았다. 국내 언론사에 비해 기계학습이나 딥러닝 등 데이터 과학 부문에 관한 연구가 많이 이뤄진 곳이지만, 생성형 AI에 있어서는 기술 의존성이 강해지고 있는 점은 장기적으로 위협이 될 것으로 보인다.
오픈AI나 구글 등 빅테크 기업에 언론사 기사를 학습할 수 있도록 판매하는 정책이 적절한지에 대해서는 언론사 간 이견도 있다. 파이낸셜타임스가 4월 영국 언론 중 처음으로 오픈AI와 기사 활용 계약을 맺은 반면, BBC는 여전히 신중한 입장이다.
로라 엘리스 BBC R&D 부문 기술 예측 총괄은 “뉴스처럼 지속해서 생성되는 콘텐츠는 가치가 크기 때문에 신중해야 한다”며 “생성형 검색(RAG 등)으로 생성형 AI가 질문에 답할 수 있게 된다면 사람들은 뉴스 웹사이트를 방문할 필요가 없어진다. 이는 뉴스 산업에 대한 존재적 위협”이라고 설명했다.
짐 이건 FT스트레티지(FT Strategies) 수석은 “FT는 탈중개화(FT의 콘텐츠가 FT를 거치지 않고 생성형 AI와 독자가 직접적으로 연결되는 형태)에 대해 고려했고, 오픈AI와의 협상에서도 이런 점들이 분명히 반영됐다”고 설명했다.
※ 이 기사는 한국언론진흥재단 주최 KPF 디플로마-AI저널리즘 과정의 일환으로 작성되었습니다.
런던=권기범 기자 kaki@donga.com