※생성 인공지능이 세계를 뜨겁게 달굽니다. 사람만큼, 더러는 사람보다 더 그림을 잘 그리고 글을 잘 쓰는 생성 인공지능. 생성 인공지능을 설치하고 활용하는 방법과 최신 소식을 매주 전합니다.
생성 AI(Generative AI)는 이용자의 특정 요구에 따라 이미지와 영상 제작뿐만 아니라 음악과 미술 작품 등을 창작하고, 프로그램 제작을 위한 코딩까지 도우며, 우리의 일상 속으로 깊이 파고들었습니다. 이 가운데 방대한 데이터를 학습하며 고도화 중인 생성 AI로 인한 부작용도 일상 속으로 깊이 파고들었습니다. 가짜 뉴스의 급격한 확산과 개인정보 및 저작권 침해와 같은 부작용입니다. 생성 AI가 촉발한 부작용과 주요국의 대처를 구체적으로 살펴봅니다.
가짜뉴스마저 진짜처럼 정교하게 생성하는 AI…피해 사례 속출
생성 AI는 방대한 양의 데이터를 학습하며 정교해지는 특성이 있습니다. 텍스트와 이미지, 음원 등 가리지 않고 다양한 콘텐츠를 스스로 생성하기 위해 최대한 많은 데이터 학습이 필요한 것인데요. 문제는 이 같은 방대한 데이터를 수집하고 학습하는 과정에서 원저작권의 권리 침해가 빈번하게 발생한다는 사실입니다.
일례로 미국 뉴욕타임스(NYT)는 지난해 생성 AI 기반 대화형 챗봇 ‘챗GPT’를 만든 오픈AI와 투자사인 마이크로소프트(MS)를 상대로 수조 원을 배상하라며 소송을 제기했습니다. 오픈AI가 챗GPT를 학습시키는 과정에서 정당한 보상 없이 뉴욕타임스의 뉴스 콘텐츠를 무단으로 사용했다는 주장입니다. 뉴욕타임스는 자사 단독 기사를 챗GPT가 통째로 암기해 답변한 사례를 증거로 제출하며, 언론 산업의 미래가 위협받고 있다고 호소했습니다.
뉴욕타임스는 지난 10월 15일(현지 시각)에도 생성 AI 기반 검색 스타트업인 퍼플렉시티에 자사 콘텐츠 사용을 중단하라는 통지서를 보냈습니다. 뉴욕타임스는 자사 저작물을 퍼블렉시티가 승인 없이 무단으로 사용해 생성 AI 고도화를 위한 데이터로 사용했으며, 이로 인해 부당한 이득을 얻었다고 주장했습니다.
이 같은 사례는 우리나라에서도 발생했는데요. 지난해 한국신문협회는 네이버가 자사 생성 AI인 ‘하이퍼클로바X’를 학습시키는 과정에서 언론사들의 사전 동의 없이 뉴스 콘텐츠를 AI 학습에 무단으로 활용했다며, 시정을 요구하는 의견서를 공정거래위원회에 제출했습니다. 이에 네이버는 하이퍼클로바X의 뉴스 콘텐츠 학습이 뉴스 제휴약관에 근거한 것이므로 문제없다는 입장을 밝혀 분쟁이 시작됐습니다.
관련 분쟁은 현재진행형으로, 지난 10월 7일 국회 과학기술방송통신위원회 국정감사에서도 쟁점으로 다뤄졌습니다. 국감 현장에 증인으로 출석한 김수향 네이버 뉴스서비스총괄 전무는 하이퍼클로바X 고도화 과정에서 피해를 본 언론계에 보상할 계획이 있냐는 질문에 “언론계와 함께 검토하겠다”고 밝혔습니다. 그러면서도 그는 “생성 AI 학습 과정에서 촉발된 분쟁에서 보상 문제의 경우, 해외에서도 아직 정확하게 정리된 부분이 없다”고 언급하기도 했습니다.
생성 AI가 촉발하는 부작용은 데이터 학습 과정에서 끝나지 않습니다. 사실과 다른 내용을 그럴듯한 텍스트와 이미지, 동영상으로 제시해 사회를 혼란에 빠지게 하고, 누군가에게 치명적인 피해를 주기도 합니다. AI를 활용해 특정 인물을 정교하게 합성하는 딥페이크(Deepfake) 또한 생성 AI가 촉발하는 대표적인 부작용입니다. 딥페이크는 딥러닝과 페이크의 합성어입니다. 생성 AI가 고도화될수록 누구나 쉽게 딥페이크 영상 제작이 가능하다 보니, 피해는 일파만파로 커지고 있습니다.
도널드 트럼프 전 대통령이 체포당하는 영상으로 미국 사회가 떠들썩했던 소동이 딥페이크 피해의 대표적인 예입니다.
해당 내용이 사실인 줄 알고 보도를 내는 해외 언론사가 있었을 정도로 딥페이크는 그럴듯한 이미지를 양산해 내는데요. 대선을 앞둔 미국 유권자들에게 바이든 대통령의 가짜 음성을 이용한 선거 전화가 가는 경우나, 딥페이크로 K팝 아이돌의 얼굴을 합성해 부적절한 영상물을 제작, 인터넷에 유포하는 사례도 있었습니다.
이처럼 생성 AI로 딥페이크 기술을 누구나 손쉽게 이용하게 되면서, 사실과 다른 내용이 인터넷에 퍼져 명예 훼손 등의 피해가 빈번하게 발생합니다. 생성 AI로 취약점을 분석해 개인 정보를 탈취하는 데 악용하거나, 민감한 개인 정보를 AI가 학습해 무단으로 노출하는 사례, 악성코드를 손쉽게 작성하고 배포해 피해를 주는 경우 등 부작용의 양상도 복잡다단해지고 있습니다.
생성 AI 부작용 대처 나선 주요국
주요국은 이 같은 생성 AI 부작용에 대처하기 위해 규제에 나섰습니다.
한국지식재산연구원이 발간한 ‘주요국의 AI 규제 동향 및 시사점’에 따르면 지난 2024년 3월, 유럽의회(European Parliament)는 AI 기술 혁신을 촉진하면서도 안전과 기본권 준수를 보장하는 내용을 골자로 인공지능 법(AI Act)을 최종 승인했습니다.
구체적으로 사람과 상호 작용하거나 콘텐츠를 생성하는 데 쓰이는 특정 AI 시스템에 정보 공개 및 투명성 의무를 부과했습니다. 이를 통해 챗봇과 상호작용 중인 이용자가 그 사실을 인지할 수 있도록 안내하거나, 생성 AI로 인위적으로 생성 또는 조작한 콘텐츠의 조작 사실을 공개하도록 의무화했습니다. 생성 AI를 학습시킬 때도 저작권에 의해 보호되는 학습 데이터를 이용할 경우, 해당 정보를 문서화해 공개하도록 규정하는 등 저작권 침해 방지 수단도 마련했습니다.
미국의 경우, 지난해 10월 바이든 대통령이 ‘안전성과 보안성, 신뢰성을 갖는 AI 개발과 활용에 관한 행정명령’에 서명했습니다. 해당 행정명령은 최초의 법적 구속력을 가진 연방 차원의 AI 규제입니다. AI 모델이 대중에게 공개되기 전에 안전성을 확보, 국가존망의 위협이나 정보 유출을 방지하고, 소비자와 노동자의 권리를 지키기 위한 내용을 담고 있습니다.
구체적으로 행정명령은 ▲안전 및 보안 ▲혁신 및 경쟁 ▲근로자 지원 ▲AI의 편향 및 인권에 대한 고려사항 ▲소비자 보호 ▲개인정보 보호 ▲연방 기관의 AI 사용 ▲국제관계 리더십 등 8가지 주요 정책 영역에서 따라야 할 약 150개 이상 지침을 포함합니다.
유계환 한국지식재산연구원 법제도연구실 연구위원은 “AI 기술은 자동화 및 효율성, 편리성 등 다양한 이점을 지녔지만, 기록으로 남겨진 인간의 모든 정보를 학습데이터로 활용한다. 이 때문에 해당 정보에 담긴 편향적인 내용과 편견, 문화적 차별 등도 AI가 그대로 학습, 문제를 일으킬 수 있다”며 “빠르게 AI 기술이 발전하는 가운데, 최근에는 생성 AI 기술에 따른 부작용이 조명되면서 기술 관련 법제는 다시 한번 큰 변곡점을 맞이했다. 주요국과 마찬가지로 AI 규제에 대한 논의를 거듭해 부작용에 대처해야 할 시점”이라고 말했습니다.
댓글 0