정치캠페인용 챗봇 개발 금지
선거관련 이미지에 ‘워터마크’
WP “선거악용 완전차단 어려워”
‘챗GPT’ 개발사인 오픈AI가 미국 야당 공화당 대선 후보 선출을 위한 아이오와주 코커스(당원대회)가 열린 15일(현지 시간)에 ‘허위정보 방지 대책’을 발표했다. 11월 미 대선 등 전 세계 76개국이 대선, 총선 등을 치르는 ‘슈퍼 선거의 해’를 맞아 대중화된 생성형 AI(인공지능)를 악용해 허위정보를 퍼뜨리고 선동에 나설 수 있단 우려가 커진 데 따른 조치다.
오픈AI는 이날 “공정한 선거를 위해 모든 것은 민주적인 과정으로 이뤄져야 한다”면서 “우리의 기술이 이 과정을 훼손하는 것을 원치 않는다”고 밝혔다. 그러면서 “올해 세계 주요 민주주의 국가에서 많은 선거가 열리는 것을 감안해 AI 플랫폼 안전 작업을 추진하겠다”며 “정확한 투표 정보를 제공하고 투명성을 개선하기 위한 것”이라고 설명했다.
이날 발표의 핵심은 어떤 정치 캠페인이라도 챗GPT나 이미지 생성형 AI인 ‘달리(DALL-E)’를 이용한 챗봇 개발을 금지하는 데 있다. 오픈AI는 “특히 사람으로 가장한 챗봇을 만들어 투표를 방해하거나 선동하지 못하도록 관련 애플리케이션 개발 자체를 막겠다”고 설명했다.
당분간 챗GPT는 선거와 관련된 질문도 받지 않는다. 이미 지난해 12월 구글은 “선거 관련 질문에 대한 AI 답변을 제한하겠다”고 밝혔다. 메타 역시 정치 광고주들에게 AI 사용 여부를 공개하도록 요구했다.
달리가 만든 선거 관련 이미지에는 사용자들이 AI로 생성한 이미지임을 인식할 수 있도록 ‘워터마크’를 표시할 계획이다. 워터마크는 위조 지폐 방지 등을 위해 삽입하는 특정 패턴이나 부호 등을 일컫는다. 오픈AI는 “마이크로소프트(MS)와 인텔 등 빅테크 기업들이 설립한 ‘콘텐츠 출처 및 진위 확인을 위한 연합(C2PA)’의 디지털 인증 방식을 이용할 계획”이라고 했다.
어떤 이미지가 달리를 이용해 만들었는지 판별하는 ‘이미지 감지 도구(image-detection tool)’도 곧 출시한다. 오픈AI의 미라 무라티 최고기술책임자(CTO)는 “해당 프로그램이 내부 테스트에서는 99%의 정확도를 보였다”며 “앞으로 관련 연구자나 언론인들에게 먼저 배포해 더욱 개선해 나갈 예정”이라고 전했다.
오픈AI가 나름의 대책을 강구했지만 가시적인 효과는 두고 봐야 한다. 온갖 술수가 난무하는 선거판에서 사람을 가장한 챗봇을 만들어 여론을 조작하려는 시도는 완전 차단이 불가능하다는 의견도 나온다. 워싱턴포스트(WP)는 “워터마크만 해도 마법의 치료제가 아니다. 기술적으로 편집이 가능하다”며 “아직까지는 허위정보를 효과적으로 차단할 방법을 찾아낸 기업은 없다고 봐야 한다”고 지적했다.
댓글 0