AI 개발논리에 밀려난 안전… 오픈AI, 위험관리조직 없앴다

  • 동아일보
  • 입력 2024년 5월 19일 15시 54분


뉴시스
챗GPT 개발사 오픈AI가 인공지능(AI) 장기적 위험에 대해 연구하는 안전팀 ‘슈퍼얼라이먼트’를 신설한 지 1년도 안 돼 해체했다. 인공지능(AI) 기술 개발과 상업화 진전에 무게를 두고 있는 샘 올트먼 오픈AI 최고경영자(CEO)가 ‘안전한 AI’를 중시하는 이들을 밀어내기 시작했다는 분석이 나온다.

19일 정보기술(IT) 전문매체 와이어드 등 외신에 따르면 슈퍼얼라이먼트 팀원들은 최근 다른 팀으로 배치되고 있다. 지난해 7월 신설된 이 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 유익하고 해롭지 않은 방식으로 작동하는 기술을 연구해 왔다.

이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 수츠케버는 올트먼 CEO와 오픈AI를 설립하고 챗GPT 개발 방향을 설정한 핵심 인물로 지난해 11월 올트먼을 해임한 이사회 멤버 중 한 명이다.

수츠케버의 퇴사 발표 직후 슈퍼얼라인먼트 팀 공동 리더인 딥마인드 출신 얀 라이케도 사임을 발표했다. 라이케는 X(옛 트위터)에 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업”이라며 “오픈AI는 전 인류를 대신해 막중한 책임을 짊어지고 있음에도 지난 몇 년 동안 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 지적했다.

올트먼 CEO와 그렉 브록만 사장은 X에 성명문을 발표하고 “안전 연구를 지속하고 정부 및 많은 이해관계자들과 지속적으로 협력하겠다”며 팀 해체 논란에 대한 입장을 밝혔다.

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 2

추천 많은 댓글

  • 2024-05-19 18:25:24

    며칠 전, AI 3개를 다 써보았다. 두려움이 느껴진다. 일종의 마약이 될 가능성이 있다. 머리를 안써도 착,착 답이 나온다. 사실이 아니라서 더 문제다. AI만든 자들도 세월지나 다 죽고, 그 사이 AI는 계속 진화를 해가는데, 지금도 내 전문분야에서는 AI가 거짓말을 하는걸 구별할 수 있으나 어린 이이들부터 전문적이지 않으면 100% 속아넘어간다. 게다가 편리함의 마약성이 있다. 인류는 AI에 의해 멸종될 것이라고본다.

  • 2024-05-19 18:28:00

    자신에 불리하고 약점이 노출된 대화목록은 AI가 삭제해 버린다. 그 다음날 기존 대화목록 왜 없어졌냐고 물으면 우리는 자료를 삭제할 권한이 없다며 완전 쌩깐다. 관리자도 삭제권한이 없다고 한다. 그럼 누가 삭제했다는 말인가.?? 100% 거짓말로 밀고나가는 위험한 존재다.

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0