흩어져 있는 정보를 종합 정리해 주는 생성형 인공지능(AI) 덕분에 정보 습득 시간이 획기적으로 줄고 업무 효율도 높아질 것이라고 한다. 그런데 정말 그럴지 의심스러운 정황이 적지 않다. AI가 조작한 이미지에 속아 쓸데없는 분란이 일어나거나 감정을 소모하는 일이 벌어지니 말이다.
검소와 청렴의 아이콘인 교황이 이탈리아 명품 브랜드 패딩을 걸치고 거리를 활보한다(3월). 미국 국방부 청사가 대규모 폭발로 검은 연기에 휩싸였다(5월). 우크라이나 대통령이 항복을 선언하고 병사들은 흰색 깃발을 흔든다(지난해 3월).
가짜라서 더 유명해진 이 이미지들은 모두 AI 작품이다. 자세히 뜯어 보면 교황의 손 모양이 어색하다든지 하는 AI 이미지에서 발견되는 일반적 결함이 눈에 띈다. 하지만 얼핏 봐선 감쪽같이 속기 십상이다.
가짜 이미지뿐인가. 텍스트 쪽에선 가짜 정보가 더 빠르게, 더 많이 생성되고 있다. 뉴스 신뢰도 평가회사인 미국 ‘뉴스가드’에 따르면 뉴스 사이트처럼 보이는 웹사이트 150여 개가 전적으로 AI가 작성한 것으로 보이는 텍스트로 채워지고 있다. 오래전 사건을 방금 일어난 것처럼 쓰거나 살아 있는 사람을 ‘사망했다’고 전하는 글도 수두룩하다고 한다.
이런 가짜 정보에 속지 않으려면 내가 접한 정보가 어디까지 진실이고 어디까지 가짜인지 항상 의심하고 검증해야 한다. AI 문해력은 AI가 잘못된 정보를 전해 줄 수 있다는 사실까지 인지하는 역량이라는 얘기도 나온다. 이러니 내 일이 줄긴커녕 더 많아질 것 같다.
그래도 여기까지는 참을 만하다고 치자. 정보의 발원지를 파악하면 진위를 가릴 수 있으니까. 발원지가 공신력이 있는 매체라면 믿어도 될 것이고, 그렇지 않다면 믿지 않으면 된다.
문제는 공신력 있는 매체의 정보마저 조작 배포될 수 있다는 점이다. 동아일보의 워터마크(복제 방지 이미지)가 찍힌 사진이 워터마크째로 조작돼 소셜미디어에서 흘러다니는 상황을 가정해 볼 수 있다.
AI가 진화할수록 가짜 정보를 판별하는 일은 더욱 어려워진다. 앞으로 어떻게 진실과 거짓을 구분해야 할까. 가짜 정보에 대응하기 위해 방패 역할을 할 솔루션을 도입한다는 소식도 들려온다. BBC와 뉴욕타임스는 자사 기사에 디지털 지문을 넣는 ‘프로젝트 오리진’ 도입을 검토하고 있다. 뉴스 원본에 초록색 지문을 넣고 조금이라도 조작이 가해지면 붉은색으로 변하게 하는 것이다. 콘텐츠 이용 내력이나 작성자 정보를 담은 메타데이터를 심는 기술도 제안됐다.
아이러니한 것은 이런 조작방지 솔루션을 제안하는 곳이 전 세계에 AI를 적극 보급하고 있는 마이크로소프트(MS), 구글과 같은 빅테크라는 점이다. AI의 작동 방식을 가장 잘 아는 곳이 AI의 폐해를 막을 적임자일테니 그럴 수 있다고 하기엔 찜찜하다. 이들이 결자해지(結者解之)의 책임감으로 조작방지 솔루션을 내놓았다고도 생각되지 않는다. 돈 놓고 돈 먹기 게임을 벌여 놓고 상대에게만 판돈을 계속 깔라고 하는 상황은 아닌지.
게임의 규칙을 잘 모르거나 규칙을 만들 만큼 실력을 갖추지 못하면 판돈만 계속 깔아주는 신세를 면하지 못하게 될 것 같다.
댓글 0