올해 노벨 물리학상을 수상한 제프리 힌턴 캐나다대 토론토대 명예교수가 “30년 안에 인류가 멸종할 가능성이 있다”며 인간의 인지능력을 뛰어넘는 ‘초지능 AI’가 가져올 통제 불능 상황에 대해 재차 경고했다.
27일 영국 일간지 더 가디언에 따르면 힌턴 교수는 이날 BBC 라디오 방송 인터뷰에서 “향후 30년 내 AI가 인류를 멸망시킬 확률이 10~20%”라고 말했다. ‘AI 대부’로 불리는 힌턴 교수는 사람보다 더 똑똑한 AI가 향후 20년 이내에 개발되고 인간을 통제할 수 있게 될 것이라고 전망했다. 그는 “이 분야 전문가 대부분이 20년 이내에 사람보다 더 똑똑한 AI가 개발될 것이라고 전망한다”며 “이는 매우 무서운 일”이라고 했다. 그러면서 이같은 강력한 AI 시스템의 지능에 비하면 인간은 3살짜리 어린아이와 같을 것이라고 봤다. 그는 “더 지능적인 존재가 덜 지능적인 존재에 의해 통제되는 사례는 거의 없었다“며 ” 인간이 AI에 대한 통제력을 잃을 수 있다는 점에 우려를 표명했다.
그러면서 AI 안전을 확보할 수 있는 강력한 정부 규제를 촉구했다. 그는 “보이지 않는 손이 우리를 안전하게 지켜주지 못할 것이라는 점이 우려된다”며 “대기업의 이윤 동기에 맡겨두는 것만으로는 충분치 않다. 대기업이 AI 안전에 대해 더 많은 연구를 하도록 강제할 수 있는 유일한 방법은 정부 규제 뿐”이라고 강조했다.
힌턴 교수는 오픈AI, 구글, 메타 소속 주요 과학자들의 스승으로, 힌턴 교수 본인도 2012년 제자들과 구글브레인에 입사해 구글의 AI 개발을 도왔다. 그의 제자인 천재과학자 일리야 수츠케버는 오픈AI의 창업자다. 수츠케버는 오픈AI가 영리적으로 변했다며 샘 올트먼 최고경영자(CEO) 축출을 추진했던 인물이다. 힌턴 교수 본인 역시 지난해 구글을 나와 AI가 통제 불능으로 진보하면 인류의 미래를 위협할 수 있다며 여러 차례 경고해 왔다.
올 10월 7일(현지 시간) 스웨덴 왕립과학한림원에서 열린 노벨 물리·화학·경제학상 수상자 공동 기자회견에서도 “예전에는 초지능 AI 개발 시기가 훨씬 더 늦을 것이라고 예상했지만 최근 개발 속도를 보면 5∼20년이면 개발이 될 것 같다”며 “어떻게 (AI에 대한) 통제력을 유지할 수 있을지 심각한 고민이 필요하다”고 경고했다. 그는 과거로 돌아간다면 어떤 게 가장 후회되느냐는 질문에 “안전성에 대한 고민을 더 빨리 했어야 했다”고 답했다.
힌턴 교수는 챗GPT 같은 대규모 언어 모델(LLM)의 근간이 된 ‘딥러닝’ 개발에 기여한 공로로 존 홉필드 미국 프린스턴대 교수와 함께 올해 노벨 물리학상을 받았다.
댓글 0