[민주주의 위협하는 AI]
구글, AI생성 콘텐츠 별도표시… 메타, 인종 등 편향성 배제 기능
네이버-카카오 ‘트렌드 추천’ 추진
“조작된 정보 어뷰징 악용될 우려”
글로벌 빅테크들은 생성형 AI 결과물이 ‘할루시네이션(환각작용)’을 일으키는 걸 넘어 가짜뉴스나 왜곡된 이미지 생성 등으로 악용될 수 있다는 경고가 나오자 신뢰도 회복을 위한 기술 개발에 뛰어들고 있다. 네이버와 카카오 등 국내 정보기술(IT) 기업들도 신뢰할 수 있는 AI 기술 개발과 함께 조작된 정보를 걸러낼 거름망을 강화해야 한다는 지적이 나온다.
구글은 ‘신뢰할 만한 AI’를 강조하며 AI 생성 콘텐츠를 식별할 수 있는 도구인 ‘워터마킹’과 ‘메타데이터’를 최근 공개했다. AI가 만들어낸 모든 이미지에 표시를 남겨 육안으로 파악할 수 없는 AI 합성 이미지를 가려낼 수 있도록 하는 기술이다.
구글은 두 기술을 바탕으로 검색 기능에 ‘이 이미지에 대하여(About this image)’라는 새로운 툴을 적용하겠다고 발표했다. 언제, 어디에서 유사한 이미지가 처음 올라왔는지, 팩트체킹이 가능한 웹사이트, 뉴스, 소셜네트워크서비스(SNS)처럼 온라인상의 어느 채널에서 해당 이미지가 확인되는지를 알려주는 방식이다.
메타(페이스북)는 자체 AI 모델에 사용되는 데이터를 수집할 때 성 정체성, 연령, 인종 등 다양한 요소를 편향성 없이 수집하고 있다고 밝혔다. 이용자들이 페이스북을 이용할 때 AI의 영향을 줄일 수 있도록 AI를 기반으로 한 추천 정도를 스스로 조절할 수 있게 하는 기능도 도입했다.
이처럼 앞다퉈 신뢰성 확보에 뛰어드는 이유는 생성형 AI 패권 경쟁과 무관치 않다는 분석이 나온다. 허위 정보나 편향성을 해소하지 않고는 이용자들의 선택을 받기 힘들다는 판단에서다. 최근 미국을 비롯해 각국 정부에서 규제 강화를 검토하는 것이 영향을 미쳤다는 평가도 있다.
마이크로소프트(MS) 역시 사용자가 조작되거나 유해한 콘텐츠에 노출되지 않도록 하는 ‘클래시파이어’와 ‘메타프롬프트’를 ‘빙’에 도입했다. 클래시파이어는 생성된 AI의 답변에 유해성이 있을 경우 이를 이용자에게 전달하지 않도록 하는 기술이고, 메타프롬프트는 MS의 AI 원칙에 위배되지 않도록 시스템에 지침을 주는 기술을 뜻한다.
하지만 일부 전문가들은 “인간이 상상할 수 없을 정도의 학습 능력과 정보 생성 능력을 갖춘 AI에 대해 인간이 상상 가능한 제어 수단을 적용하는 것만으로는 충분히 안전해지기 어렵다”는 견해를 내놓기도 한다.
국내 IT 기업들 역시 AI 신뢰성을 높이기 위한 기술 개발에 나서고 있다고 밝혔다. 네이버는 현재 개발 중인 하이퍼클로바 기반의 ‘서치GPT’(가칭)에 자체적으로 ‘팩트 검증 모델’과 사용자 피드백을 통한 ‘학습강화 모델’을 적용해 정확성과 신뢰성 관련 연구를 진행 중이라고 소개했다. 네이버는 이날 댓글 이용 제한 사실을 사용자 프로필에 노출시키는 등의 개선책도 발표했다. 카카오도 지난해 7월 AI 윤리성을 연구하는 ‘카카오 공동체 기술윤리 위원회’를 신설했다.
하지만 AI가 여론에 영향을 미치기 쉬운 환경이 펼쳐짐에도 불구하고 네이버와 카카오가 ‘트렌드 토픽’과 ‘투데이 버블’ 베타 서비스에 나선 것에 대한 논란도 나오고 있다. 두 서비스가 사실상 실검과 유사한 기능을 가지고 있는 만큼 조작된 정보의 어뷰징(반복적 클릭 수 조작) 등에 악용될 수 있는데 생성형 AI 등장으로 악용 사례가 더 많아질 수 있다는 지적이 나온다.
이상욱 한양대 철학과 교수는 “AI가 잘못된 혹은 편향된 결과를 보여줄 수 있다는 것을 인지하는 대중의 ‘AI 리터러시’가 매우 중요하다”며 “서비스를 개발하는 기업 역시 최대한 편향되지 않은 데이터를 학습시킬 수 있는 방법을 고안해야 한다”고 했다.
댓글 0