[신문과 놀자/피플 IN 뉴스]인공지능 무기의 위험성 경고한 ‘스카이프’ 창업자

  • 동아일보
  • 입력 2024년 5월 13일 22시 28분


코멘트
영화 ‘터미네이터’에는 인공지능(AI) 킬러 로봇이 나옵니다. 시종일관 무표정하게 표적을 쫓고, 작전 수행 도중 걸리적거리면 무고한 시민이라도 거리낌 없이 제거합니다. 목표를 달성하기 위한 알고리즘에 따라서만 움직이기 때문입니다. 그런데 이런 섬뜩한 상상이 머지않아 현실이 될 수도 있을 것 같습니다.

팔레스타인 무장단체 하마스와 이스라엘이 전쟁을 벌이는 가자지구에서 이스라엘군은 이미 AI 프로그램 ‘라벤더’로 암살 표적을 찾아내 테러리스트 명단을 만들고, 이를 부대에 전달해 작전을 수행하고 있습니다.

그런데 이스라엘군이 신속한 작전 수행을 위해 10% 이상의 오차 범위를 허용하고 있다는 의혹이 제기되고 있습니다. 엉뚱한 사람이 표적으로 오인되어 죽을 수 있다는 거지요.

천재 물리학자 스티븐 호킹부터 최근 테슬라의 최고경영자(CEO) 일론 머스크까지, AI의 발전이 인류의 생존을 위협할 거라고 경고한 인사들은 많았습니다. 하지만 스카이프의 공동 창업자인 얀 탈린(52·사진)은 좀 더 극단적으로 전망합니다. 그는 “(AI가 발전하는) 현재 궤적에서 인류는 그리 오래 살지 못할 것”이라고까지 했습니다. 또 “AI 사업에 자본가들이 투자하는 가운데 전쟁이 일어나고 있기 때문에 반드시 AI 자율살상무기를 통제해야 한다”고 경고했습니다.

그의 위기의식에 세계 각국도 공감하는 것 같습니다. 지난달 29일 오스트리아 빈에서는 AI와 군사기술의 결합을 제재하는 방안을 논의하는 자율무기시스템 관련 콘퍼런스가 열렸습니다. 100여 개국의 군사, 기술 관계자들이 참석한 자리에서 ‘지금이 우리 시대의 오펜하이머 순간’이라는 말도 나왔습니다. 1945년 원자폭탄 개발을 주도했다가 이후 핵무기 확산에 반대했던 로버트 오펜하이머 박사의 예를 들며 AI 무기 규제의 필요성을 강조한 겁니다.

지금까지 가자지구에서 3만5000명 넘는 사람들이 목숨을 잃었습니다. 그중 3분의 2는 여성과 어린이였습니다. 이런 상황에서 목표를 위해 오차범위를 개의치 않으며 스스로 판단해 인간을 살상하는 AI 무기까지 등장한다면 전쟁 양상은 더 참혹해질 겁니다. 인류가 군용 AI 개발에 대한 국제적 기준과 규약 마련에 너무 늦지 않으면 좋겠습니다.

#인공지능 무기#위험성 경고#스카이프 창업자
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스