미국의 연구기관 ‘인공지능 안전을 위한 센터(Center for AI Safety, 이하 CAIS)’는 5월 30일(이하 현지시각) ‘인공지능이 인류를 멸망으로 몰아넣을 가능성이 있다’며 경고하는 성명을 냈다.
CAIS는 잘못된 정보와 가짜 뉴스의 제작, 개인정보 탈취 등 인공지능의 악용 사례가 세계 곳곳에서 보고됐다며, 이 문제를 미리 대비하고 해결해야 한다고 강조했다. ▲예고 없이 세계를 휩쓸어 큰 피해를 입힌 코로나19 팬데믹 ▲원자폭탄이 세계 핵 전쟁을 일으킬 것을 우려해 국제 협력을 촉구한 과학자들의 예를 들며 '인공지능이 미칠 위협은 전염병, 핵 전쟁처럼 인류를 멸망시킬 수준에까지 다다를 것'이라고도 경고했다.
CAIS는 인공지능 개발자뿐만 아니라 철학자와 윤리학자, 법학자와 경제학자, 물리학자와 정치학자 등 학계 전반의 연구자들이 성명에 동의했다고 밝혔다. 이어 세계 각국 정부와 인공지능 업계 관계자들이 지혜를 모아 인공지능의 위협을 없앨 방안을 마련해야 한다고 촉구했다.
챗GPT의 개발사 오픈AI의 샘 알트만 CEO, 구글의 인공지능 개발 기업 딥마인드의 데미스 허사비스 CEO, 마이크로소프트의 케빈 스콧 CTO 등 인공지능 기업의 임직원과 학계 관계자 수백 명도 CAIS의 성명에 실명으로 동참한 것으로 알려졌다.
인공지능의 성능이 꾸준히 좋아지면서 악용 가능성을 경고하는 목소리도 함께 커졌다. 이를 대비할 대책도 속속 나왔다. 앞서 4월, 조 바이든 미국 대통령은 과학기술자문회의에서 '인공지능이 사회와 경제, 국가 안보에 미칠 영향을 조사하고 대비하라'고 지시했다. 데이터 수집과 인공지능 기술 개발, 인공지능 광고의 범위를 규제할 법안이 필요하다고도 말했다.
5월 초에는 오픈AI가 '앞으로 등장할 범용 인공지능과 이를 능가하는 초지능 시스템을 감시·규제할 국제 기구를 세우자'는 의견을 냈다.
업계는 고도화된 초지능 시스템이 사람을 압도하는 능력을 발휘할 것이라며, 세계 규모의 대기업과 대등한 생산 활동을 할 것으로 기대한다. 동시에 지금까지 인공지능이 낳은 폐해도 더욱 심각해질 것을 우려한다. 오픈AI는 초지능 시스템의 위험이 지금까지 등장한 그 어떤 기술보다 크다고 알렸다. 그렇기에 인류가 원자력 기술을 개발하고 이를 감시·규제할 국제 기구를 만든 것처럼, 인공지능의 위험을 충분히 대비하고 관리할 방법을 마련해야 한다고도 밝혔다.
오픈AI는 인공지능의 위험을 관리할 방법으로 ▲인공지능 기업과 업계가 논의해 기술 개발의 기준을 세우고 속도를 조절하는 것 ▲국제원자력기구(IAEA)처럼 인공지능의 안전 표준을 만들고 준수 여부를 감시할 국제 기관을 세우는 것 ▲초지능을 안전하게 만들 기술의 연구 개발에 박차를 가하는 것을 각각 들었다.
이어 인공지능의 성능이 좋아질수록 위험을 관리하기 어려워질 것이며, 심지어 관리가 불가능해질 가능성도 높다며 일찌감치 대응 방안을 논의해야 한다고도 강조했다.
댓글 0