2023.10.08 워싱턴=AP/뉴시스
● AI 개발 전 취약점 찾는 ‘레드팀’ 구성 의무화
바이든 대통령이 이날 서명한 ‘안전하고 신뢰할 수 있는 AI 개발 및 사용’ 행정명령은 AI에 대한 미국 정부의 첫 번째 규제 조치다. 이 행정명령은 머신러닝 등 AI 훈련부터 개발, 생산과 서비스까지 전 분야에 대한 규제를 담고 있다. 백악관은 “AI 시스템의 잠재적 위험으로부터 미국인을 보호하기 위한 가장 포괄적인 조치”라고 강조했다.행정명령은 AI 개발 시 사전에 취약점을 찾아내는 ‘레드팀(Red Team)’을 의무적으로 구성해 안전성 테스트 결과를 정부에 보고하도록 했다. 이를 위해 미 에너지부가 AI 모델 평가 도구를 개발하는 등 테스트 지침을 9개월 내에 마련하기로 했다.
특히 행정명령은 AI 테스트 지침과 관련해 “최소한 핵무기와 생화학무기, 중요 인프라와 에너지 안보 등에 얼마나 위협이 될 수 있는지 판단할 수 있는 평가 도구를 개발해야 한다”고 적시했다. 상업용으로 개발된 AI도 언제든 무기 제작 등 군사적 용도로 사용될 수 있는 만큼 AI 개발 단계에서부터 핵무기와 생화학무기 등 WMD 제작이나 미국 전력·통신·교통망 등 핵심 인프라에 사이버 공격을 가할 가능성이 있는지 확인하도록 한다는 취지다.
기업들이 새로운 AI 모델을 개발할 때 상무부에 개발 의도와 훈련 계획, 사이버 보안 조치를 보고하도록 의무화하는 내용도 담겼다. 이와 함께 국가안보회의(NSC)에는 적국이 AI를 활용해 미국이나 동맹국에 위협을 초래할 가능성, 미국이 AI를 국가안보 강화를 위해 활용할 수 있는 방안 등을 담은 ‘AI 국가 안보 보고서’를 작성해 제출하도록 했다.
가짜 정보의 확산을 방지하기 위해 AI 콘텐츠에 워터마크를 부착하도록 하는 내용도 포함됐다. 바이든 대통령은 이날 서명식에서 “사기꾼들은 (AI로) 3초면 여러분의 목소리를 녹음해 따라 할 수 있다”며 “나도 (AI로 만든) 내 영상을 몇 개 보고 ‘도대체 내가 언제 저런 말을 했지’라고 생각할 때도 있다”고 말했다.
● ‘AI 정상회의’ 1일 영국서 열려
G7이 최근 발표한 11개 강령은 AI 기술의 효용을 살리면서도 그에 따른 위험을 최소화하자는 취지로 만들어졌다. 이 강령에는 ‘인권에 중대한 위험을 초래할 방법으로 고도의 AI를 개발·도입해서는 안 된다’, ‘사용자가 AI에 의해 생성된 콘텐츠를 식별할 수 있도록 인증 메커니즘을 도입한다’, ‘국제적인 기술 규격에 맞게 개발을 추진해야 한다’, ‘개인정보 및 지식재산권을 보호한다’는 등의 내용이 담겼다.
워싱턴=문병기 특파원 weappon@donga.com