뉴스 트렌드 생활정보 International edition 매체

AI 개발논리에 밀려난 안전… 오픈AI, 위험관리조직 없앴다

입력 | 2024-05-19 15:54:00


뉴시스

챗GPT 개발사 오픈AI가 인공지능(AI) 장기적 위험에 대해 연구하는 안전팀 ‘슈퍼얼라이먼트’를 신설한 지 1년도 안 돼 해체했다. 인공지능(AI) 기술 개발과 상업화 진전에 무게를 두고 있는 샘 올트먼 오픈AI 최고경영자(CEO)가 ‘안전한 AI’를 중시하는 이들을 밀어내기 시작했다는 분석이 나온다.

19일 정보기술(IT) 전문매체 와이어드 등 외신에 따르면 슈퍼얼라이먼트 팀원들은 최근 다른 팀으로 배치되고 있다. 지난해 7월 신설된 이 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 유익하고 해롭지 않은 방식으로 작동하는 기술을 연구해 왔다.

이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 수츠케버는 올트먼 CEO와 오픈AI를 설립하고 챗GPT 개발 방향을 설정한 핵심 인물로 지난해 11월 올트먼을 해임한 이사회 멤버 중 한 명이다.

수츠케버의 퇴사 발표 직후 슈퍼얼라인먼트 팀 공동 리더인 딥마인드 출신 얀 라이케도 사임을 발표했다. 라이케는 X(옛 트위터)에 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업”이라며 “오픈AI는 전 인류를 대신해 막중한 책임을 짊어지고 있음에도 지난 몇 년 동안 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 지적했다.

올트먼 CEO와 그렉 브록만 사장은 X에 성명문을 발표하고 “안전 연구를 지속하고 정부 및 많은 이해관계자들과 지속적으로 협력하겠다”며 팀 해체 논란에 대한 입장을 밝혔다.


남혜정 기자 namduck2@donga.com