“잠재적 위험 정부에 고발 말라”… 오픈AI, 직원 입 막았다

  • 동아일보
  • 입력 2024년 7월 14일 17시 12분


코멘트
AP=뉴시스
‘챗GPT’ 개발사인 오픈AI의 안전·윤리 문제가 또 다시 도마 위에 올랐다. 오픈AI가 직원들에게 인공지능(AI) 기술 위험을 규제당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 나왔다. 안전 테스트를 충분히 거치지 않고 AI 모델 ‘GPT-4o’ 출시를 강행했다는 논란이 제기된 지 하루 만이다.

13일(현지 시간) 미국 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 미국 증권거래위원회(SEC)에 회사의 비밀 유지계약에 대한 조사를 촉구하는 서한을 보냈다. 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다는 게 고발 내용이다.

내부고발자들은 “오픈AI가 직원들이 연방당국에 정보를 공개할 때 회사 사전 동의를 받도록 했고, 연방 규제당국에 회사에 대한 우려를 제기한 직원들에게 회사 측이 책임을 물을 수 있도록 했다”고 주장했다. 미국에서는 내부 고발을 금지시키는 것은 연방법 위반이다. 이들은 이어 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 비판했다.

이와 함께 WP 등 외신에 따르면 오픈AI는 최신 AI 모델 ‘GPT-4o’가 자체 보안 테스트를 완전히 통과하지 못했음에도 5월 출시를 강행한 것으로 알려졌다. 지난해 사내 메신저를 해킹당해 AI 기술 설계도에 대한 세부 정보를 해킹당했지만 수사 기관에 알리지 않았다는 폭로도 나왔다. 최근 오픈AI는 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.

AI 선두주자인 오픈AI를 둘러싼 안전성 우려가 커지면서 AI 규제 강화 필요성에 대한 목소리도 커질 전망이다. 오픈AI·구글 딥마인드·앤스로픽 등 전·현직 정보기술(IT)업계 종사자 13명은 지난달 초 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동 성명을 내고 기술의 위험성을 경고했다. 이들은 성명을 통해 “정보 조작·자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”며 “기업 내부 규제만으로 한계가 있는 만큼 적절한 입법이 필요하다”고 주장했다.
#오픈ai#인공지능#챗gpt#ai 안전테스트
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스