“군사 분야 인공지능(AI)은 반드시 적용 가능한 국제법과 국내법에 합치하는 방식으로 개발·배치·이용돼야 한다.”
한국과 미국, 일본을 비롯한 61개국이 군사 AI를 활용할 때 반드시 UN헌장과 국제인도법, 국제인권법 등을 지켜야 한다는 내용이 담긴 ‘행동을 위한 청사진(blueprint for action)’ 문건에 10일 합의했다. 영화 ‘터미네이터’ 시리즈에 등장한 것과 같은 AI 시스템이 인간에 해를 끼치지 못하게 하도록 세계 각국이 자발적인 ‘가드레일’을 설정한 것.
이번 문서에는 최근 우크라이나 등에서 군사 AI가 실전에 배치되면서 “적어도 국제법을 준수하는 범위 안에서 이용해야 한다”는 국제사회의 요구가 커지고 있는 점이 적극 반영됐다. ‘자폭 드론’ 등 AI를 활용한 무기를 실전 배치한 우크라이나도 이 문건에 서명했다. 다만 중국과 이스라엘은 문건에 서명하지 않았다. 군사 AI 이용에 대한 인간의 책임을 구체적으로 규정한 국제 합의문이 나온 건 처음이다.
● “핵무기 사용에 인간 통제·개입 유지해야”
정부는 10일 서울에서 네덜란드 등 4개 국가와 함께 연 ‘군사적 영역의 책임 있는 인공지능에 관한 고위급회의(REAIM)’ 폐회식에서 이 결과문서를 채택했다. 서문과 20개 항으로 구성된 문건에는 “인간은 군사 AI 활용에 대한 책임을 지고, 책임은 어떤 경우에도 기계에 전가될 수 없다”는 내용이 담겼다. 또 “오작동 등으로 발생하는 의도치 않은 결과의 위험을 줄이기 위해 적절한 보호 장치를 마련해야 한다”는 문구도 포함됐다. 가령 적군을 분별해 내는 ‘AI 시스템’이 민간인을 적군으로 잘못 식별해 살상이란 결과로 이어지더라도 그 책임은 AI를 운용하고 감독하는 인간에게 있다며 법적, 윤리적 책임 소재를 분명히 한 것이다.
문건에는 “AI 기술이 핵무기 등 확산에 활용되는 것을 방지할 필요성이 있다”며 “핵무기 사용에 관한 정보를 제공하고 실행하는 데 있어 ‘인간의 통제와 개입’을 유지하는 것이 중요하다”는 내용도 담겼다. 인간이 대량 살상무기인 핵무기 사용에 대해 완전한 통제권을 가지고, AI가 핵무기를 통제할 수 없도록 하자는 것. “핵무기에 대한 인간 통제권을 유지한다”는 문구가 국제회의 결과문서에 포함된 것도 처음이다. 앞서 미국과 영국, 프랑스가 이 내용이 담긴 약속을 한 바 있지만 중국과 러시아는 동참하지 않고 있다.
● “군사 AI 이용 관련 국제사회 첫 구체 가이드라인”
국제사회가 ‘킬러 로봇’과 같은 군사 AI의 이용 책임을 둘러싼 가이드라인을 정한 것은 군사 AI가 점차 실전에 배치돼 활용되고 있음에도 이를 규제할 국제 협약은 없기 때문이다. 이스라엘은 팔레스타인 무장 단체 하마스와의 전쟁에서 가자지구 땅굴에 AI를 탑재한 소형 로봇을 투입해왔고, 폭격 대상인 하마스 대원을 식별하는 데 AI 시스템을 활용해온 것으로 알려졌다. 우크라이나군은 2022년 5월 AI를 활용한 전술 프로그램을 이용해 시베르스키도네츠강을 건너려던 러시아군 1500여 명을 격멸한 것으로 알려졌다. 드론이 표적을 식별하고, AI가 표적 주변에서 가깝고 효율적인 무기를 보유한 부대에 공격을 명령하는 역할까지 한 것이다.
정부 관계자는 “지난해 네덜란드에서 열린 고위급 회의에선 60개국이 ‘AI의 책임 있는 이용을 위해 행동을 시작하자’는 호소문(call to action)에 합의했다”며 “이번엔 ‘책임’이란 무엇인지 어떤 행동을 해야 할지 구체성을 더한 가이드라인이 담긴 문건에 합의한 것”이라고 평가했다. 정부는 올 10월 열리는 유엔총회에서 후속 논의를 이어갈 예정이다.
이번 회의가 끝난 뒤에도 얼마든지 참여국이 ‘행동을 위한 청사진’ 문건에 지지 의사를 밝힐 수 있는 만큼 이 문건에 서명하는 국가는 더 늘어날 수 있다. 중국은 회의 전까지 결과 문서 서명 여부를 알려달라는 우리 측의 요구에 “검토 중”이란 입장을 밝힌 것으로 전해졌다.
댓글 0