인공지능(AI) 기술의 급속한 발전으로 우리의 일상과 산업 전반에 큰 변화가 일어나고 있다. 본 기고에서는 AI로 인해 변화할 미래와 이에 대비하는 우리의 자세에 대해 다각도로 살펴보고자 한다.
AI 창작 콘텐츠, 보호받을 수 있을까? 기존 저작물은 AI 학습에 어디까지 활용할 수 있을까? AI 창작 콘텐츠, 법적·윤리적 도전과 해결 과제
지난 5월 개봉한 할리우드 영화 ‘스턴트맨’은 AI 딥페이크 기술의 양면성을 명확하게 보여준다. 영화에서 AI 기술은 대역 배우 얼굴을 스타 배우 얼굴로 자연스럽게 바꿔 위험한 액션이나 젊은 시절 모습을 완벽하게 구현하는데 기여한다. 반면 범죄에 악용되어 제3자에게 살인 누명을 씌우는데 활용되기도 한다.
AI 딥페이크 기술의 악용 사례는 현실에서도 어렵지 않게 찾을 수 있다. 유명 연예인 얼굴을 성착취물에 합성해 무단으로 배포하거나, 가족의 목소리를 제작해 보이스피싱에 이용하기도 한다. 정치인 선거에 가짜 뉴스를 양산하는 사례도 있다.
AI 딥페이크 콘텐츠가 야기할 수 있는 법적 문제는 크게 세 가지로 나눌 수 있다. 물론 AI 창작 콘텐츠나 AI 창작 콘텐츠 관련 문제를 직접적으로 규제하는 법률은 없으나 기존 법률로도 상당 부분 위법성을 가늠할 수 있다.
첫째 동의 없는 인격 도용이다. AI 기술로 유명인의 목소리, 얼굴 등을 학습해 그들의 사진, 영상을 제작 및 배포했다면 초상권, 퍼블리시티권 침해가 될 수 있다.
둘째 허위 정보 생산과 유통의 문제다. AI 기술로 실제와 구분하기 어려운 가짜 이미지나 영상을 만들어 배포하는 경우 정보통신망법상 허위 사실 적시 명예훼손에 해당할 수 있다. 또한 AI 기술로 성착취물 영상을 제작했다면, 성폭력처벌법 허위 영상물 등의 반포에 해당할 수 있다.
셋째 윤리적 편향과 차별의 재생산이다. AI 기술은 학습 데이터에 포함된 편견을 그대로 반영하거나 증폭시킬 수 있다. 예를 들어 특정 성별이나 인종에 대한 고정관념을 담은 이미지를 무분별하게 생성하거나, 편향된 서사를 담은 텍스트를 만들어낼 수 있다. 이 부분은 아직 법적 규제가 명시되지 않은 영역이다.
이러한 문제에 대해 세계 각국은 어떻게 대응하고 있을까? 유럽연합(EU)은 ‘AI법(AI Act)’을 통해 AI 창작 콘텐츠에 AI 기술로 제작한 사실을 반드시 표시하도록 규정하고 있다. 중국은 지난해 ‘딥페이크 관리 규정’을 제정해 AI 창작 콘텐츠의 제작 및 유통을 엄격히 관리하고 있다. 미국은 법적 규제보다 자율 규제에 방점을 두고 있다. 구글, 메타 등 주요 AI 기업은 ‘AI 생성 콘텐츠 원칙’을 발표하고, AI 워터마크 기술 도입, 콘텐츠 검증 시스템 구축 등을 자발적으로 추진하고 있다.
우리나라도 AI 창작 콘텐츠에 대한 법적 규제 도입을 추진하고 있다. 정부는 AI 창작 콘텐츠의 식별 표시 의무화, 퍼블리시티권 보호 강화, 허위 정보 유통 방지 등을 위한 구체적인 법적 기준 마련을 위해 법 제정 및 가이드라인 발표를 진행할 것이라고 밝혔다. 기술적 해결 방안 도입도 준비하고 있다. 한국정보통신기술협회(TTA)는 올 연말을 목표로 AI 워터마크 적용 가이드라인을 발표할 예정이다.
AI 창작 콘텐츠는 새로운 표현과 혁신의 도구가 될 수 있지만, 동시에 심각한 법적, 윤리적 문제를 야기할 수 있다. 이에 이러한 문제를 예방할 방법과 향후 도입할 규제의 적합성에 대해 함께 고민해야 한다. 앞서 언급한 정부의 법 제정 및 가이드라인 발표, 기술적 해결 방안의 도입과 함께 출처 추적 기술, 콘텐츠 진위 판별 시스템 등 다양한 기술적 보호 조치의 도입 및 의무화 방안을 검토해야 한다. 또한 윤리 가이드라인 수립과 교육도 간과하지 말아야 한다. 창작자와 이용자 모두 준수해야 할 윤리적 원칙을 수립하고, 이에 대한 인식을 높여야 한다.
글 / 옥다혜 법무법인 미션 변호사 법무법인 미션 공공거버넌스팀 소속으로, 새로운 산업의 등장에 따라 새로운 제도를 입법 및 설계하도록 정부, 공공기관 등에 자문하고 있다. 경기콘텐츠진흥원 법률 지원 사업의 일환으로 AI 시대에 콘텐츠 스타트업과 창작자들의 권리에 대해 고민하면서 기고를 진행하고 있다.
댓글 0