‘안전한 AI’ 뒷전?… 오픈AI, 위험 연구팀 해체

  • 동아일보
  • 입력 2024년 5월 20일 03시 00분


공동 창업자 수츠케버 퇴사 직후
올트먼 CEO, 상업화에 가속도

챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적 위험에 대해 연구하는 안전팀 ‘슈퍼얼라인먼트’를 신설한 지 1년도 안 돼 해체했다. AI 기술 개발과 상업화 진전에 무게를 두고 있는 샘 올트먼 오픈AI 최고경영자(CEO)가 ‘안전한 AI’를 중시하는 이들을 밀어내기 시작했다는 분석이 나온다.

19일 정보기술(IT) 전문 매체 와이어드 등 외신에 따르면 슈퍼얼라인먼트 팀원들은 최근 다른 팀으로 배치되고 있다. 지난해 7월 신설된 이 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 유익하고 해롭지 않은 방식으로 작동하는 기술을 연구해 왔다.

이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 수츠케버는 올트먼 CEO와 오픈AI를 설립하고 챗GPT 개발 방향을 설정한 핵심 인물로 지난해 11월 올트먼을 해임한 이사회 멤버 중 한 명이다.

수츠케버의 퇴사 발표 직후 슈퍼얼라인먼트 팀 공동 리더인 딥마인드 출신 얀 라이커도 사임을 발표했다. 라이케는 X(옛 트위터)에 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업”이라며 “오픈AI는 전 인류를 대신해 막중한 책임을 짊어지고 있음에도 지난 몇 년 동안 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 지적했다.

#오픈ai#위험연구팀 해체#상업화 가속도
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0