영화 ‘터미네이터’에는 인공지능(AI) 킬러 로봇이 나옵니다. 시종일관 무표정하게 표적을 쫓고, 작전 수행 도중 걸리적거리면 무고한 시민이라도 거리낌 없이 제거합니다. 목표를 달성하기 위한 알고리즘에 따라서만 움직이기 때문입니다. 그런데 이런 섬뜩한 상상이 머지않아 현실이 될 수도 있을 것 같습니다.
팔레스타인 무장단체 하마스와 이스라엘이 전쟁을 벌이는 가자지구에서 이스라엘군은 이미 AI 프로그램 ‘라벤더’로 암살 표적을 찾아내 테러리스트 명단을 만들고, 이를 부대에 전달해 작전을 수행하고 있습니다.
그런데 이스라엘군이 신속한 작전 수행을 위해 10% 이상의 오차 범위를 허용하고 있다는 의혹이 제기되고 있습니다. 엉뚱한 사람이 표적으로 오인되어 죽을 수 있다는 거지요.
그의 위기의식에 세계 각국도 공감하는 것 같습니다. 지난달 29일 오스트리아 빈에서는 AI와 군사기술의 결합을 제재하는 방안을 논의하는 자율무기시스템 관련 콘퍼런스가 열렸습니다. 100여 개국의 군사, 기술 관계자들이 참석한 자리에서 ‘지금이 우리 시대의 오펜하이머 순간’이라는 말도 나왔습니다. 1945년 원자폭탄 개발을 주도했다가 이후 핵무기 확산에 반대했던 로버트 오펜하이머 박사의 예를 들며 AI 무기 규제의 필요성을 강조한 겁니다.
지금까지 가자지구에서 3만5000명 넘는 사람들이 목숨을 잃었습니다. 그중 3분의 2는 여성과 어린이였습니다. 이런 상황에서 목표를 위해 오차범위를 개의치 않으며 스스로 판단해 인간을 살상하는 AI 무기까지 등장한다면 전쟁 양상은 더 참혹해질 겁니다. 인류가 군용 AI 개발에 대한 국제적 기준과 규약 마련에 너무 늦지 않으면 좋겠습니다.
이의진 도선고 교사 roserain9999@hanmail.net