일부 직원들, SEC에 서한 보내 불법 비밀 유지 계약 조사 촉구 WP “보안테스트 통과못한채 출시”
‘챗GPT’ 개발사인 오픈AI의 안전·윤리 문제가 또다시 도마 위에 올랐다. 오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다. 안전 테스트를 충분히 거치지 않고 AI 모델 ‘GPT-4o’ 출시를 강행했다는 논란이 제기된 지 하루 만이다.
13일(현지 시간) 미국 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 미국 증권거래위원회(SEC)에 회사의 비밀 유지 계약에 대한 조사를 촉구하는 서한을 보냈다. 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.
내부 고발자들은 “오픈AI가 직원들이 연방 당국에 정보를 공개할 때 회사 사전 동의를 받도록 했고, 연방 규제 당국에 회사에 대한 우려를 제기한 직원들에게 회사 측이 책임을 물을 수 있도록 했다”고 주장했다. 미국에서는 내부 고발을 금지시키는 것은 연방법 위반이다. 이들은 이어 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 비판했다.
AI 선두주자인 오픈AI를 둘러싼 안전성 우려가 커지면서 AI 규제 강화 필요성에 대한 목소리도 커질 것으로 전망된다. 오픈AI, 구글 딥마인드, 앤스로픽 등 전현직 정보기술(IT) 업계 종사자 13명은 지난달 초 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동성명을 내고 기술의 위험성을 경고했다. 이들은 성명을 통해 “정보 조작, 자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”며 “기업 내부 규제만으로 한계가 있는 만큼 적절한 입법이 필요하다”고 주장했다.
남혜정 기자 namduck2@donga.com