뉴스 트렌드 생활정보 International edition 매체

네이버, AI 통제력 상실-악용 위험 예방안 공개

입력 | 2024-06-18 03:00:00

국내 기업 첫 ‘AI 안전성’ 방안 내놔
3개월마다 위험 평가해 관리하기로





네이버가 국내 기업 최초로 인공지능(AI) 안전성 체계를 설계하고 실천 방안을 내놨다. 인류를 위협할 만한 최고 성능의 AI 시스템에 대해선 3개월마다 위험도를 평가하고 관리하기로 했다.

네이버는 기술 채널인 채널 테크를 통해 ‘네이버 인공지능 안전성 프레임워크(ASF)’를 17일 공개했다. ASF는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계를 담고 있다. AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고 이에 대응하기 위한 방법을 설계한 것이 특징이다.

네이버는 통제력 상실 위험을 완화하기 위해 ‘AI 위험 평가 스케일’로 AI 시스템의 위험을 주기적으로 평가하고 관리할 방침이다. 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.

악용 가능성에 대해서는 ‘AI 위험 평가 매트릭스’를 적용할 계획이다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다. 예컨대 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하는 식이다. 특히 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 위험의 정도가 낮아질 때까지 모델 또는 서비스 배포를 중단할 방침이다.



남혜정 기자 namduck2@donga.com