챗GPT 개발사 “인류 무력화 가능 인간 안전 확보 위한 연구 나설 것”
챗GPT 개발사인 오픈AI가 10년 안에 ‘초지능(superintelligence)’이 인류를 위협하는 기술이 될 것으로 전망하고 인간의 안전을 확보하기 위한 연구에 착수하기로 했다.
5일(현지 시간) 오픈AI의 공동 설립자이자 수석과학자인 일리야 수츠케베르와 얀 레이케 얼라인먼트 총괄은 자사 블로그를 통해 “초지능은 인류가 발명한 기술 중 가장 영향력 있는 기술이 될 것이지만 한편으로는 인류를 무력화하고 멸종시킬 수 있다”고 밝혔다. 이어 “현재로서는 초지능적인 인공지능(AI)을 제어하고 제멋대로 행동하는 것을 방지하는 솔루션은 없다”고 지적했다.
이들은 인간보다 뛰어난 초지능 AI가 10년 내에 등장할 것으로 전망하며 ‘정렬(alignment) 연구’를 통해 돌파구를 찾아야 한다고 강조했다. 정렬이란 AI 시스템이 인간의 목표와 윤리적 원칙에 따라 움직이도록 조종하고 제어하는 것을 말한다. 지금까지는 AI가 사람의 피드백을 통해 강화학습을 하는 등 인간의 능력에 의존해 AI를 정렬했지만, 앞으로 인간을 뛰어넘는 AI 시스템이 나오면 안정적으로 감독하기 어려울 수 있다는 지적 때문이다.
이들은 “인간의 피드백을 활용해 인간의 평가를 보조할 수 있도록 AI를 훈련시켜 최종적으로는 AI가 정렬 연구를 수행할 수 있도록 할 것”이라고 밝혔다. 이어 “오픈AI의 현재 모델들의 안전성을 향상시키는 한편 AI 오용이나 경제적 혼란, 허위 정보, 편견과 차별 등 AI로 인한 위험을 완화시키는 역할을 할 예정”이라고 말했다.
김하경 기자 whatsup@donga.com