로봇의 사회적 역할이 커지면서 법과 제도를 정비해야 한다는 지적도 나온다. 어떻게 하면 로봇을 효율적으로 통제할 것인지 고민하자는 것이다.
가장 자주 거론되는 개념은 ‘로봇 3원칙’이다. 공상과학(SF) 소설가인 아이작 아시모프가 1942년 단편소설 ‘런어라운드(Runaround)’에서 처음 소개한 것으로, 영화 ‘아이 로봇’과 그 원작소설에도 등장한다.
로봇 3원칙은 △로봇은 인간을 위험에 처하게 하면 안 되고(1원칙) △1원칙에 어긋나지 않는 한 로봇은 인간의 명령을 들어야 하며(2원칙) △1, 2원칙에 어긋나지 않는 한 로봇은 자신을 지켜야 한다(3원칙)는 내용이다. 즉 로봇 지능을 설계할 때 3가지 원칙을 반드시 지킨다면 언제든지 인간이 로봇을 통제할 수 있다.
이 원칙은 한국에서 산업표준으로 쓰고 있다. 2006년 산업자원부(현 산업통상자원부)는 ‘로봇 안전행동 3대 원칙’이란 이름으로 ‘서비스 로봇이 갖춰야 할 안전지침’을 만들어 KS규격으로 제정했다. 인간보호와 명령복종, 자기보호라는 로봇 3원칙에서 핵심 내용을 그대로 가져왔다.
최근에는 로봇이 인간보다 더 고도의 지능을 가질 상황에 대비해 새로운 ‘2대 프로토콜(규약)’이 만들어졌다. 이 개념은 지난해 개봉한 영화 ‘오토마타’에 등장하면서 로봇공학자와 인공지능 학자들 사이에서 화제가 됐다.
첫 번째 프로토콜은 로봇은 생명체를 해치거나 죽도록 방치하지 않는다는 것이다. 두 번째는 로봇은 자신이나 다른 로봇을 고치거나 개조할 수 없다고 규정한다. 로봇의 자체 개조와 수리를 막는 이유는 인간의 불안감 때문이다. 인간이 정한 기준보다 로봇의 기능이 우수할 경우 통제가 안 되기 때문이다. 또 고장 난 로봇을 인간만 수리할 수 있다면 로봇이 반란을 일으킬 여지도 사라진다.
정재승 KAIST 바이오및뇌공학과 교수는 “로봇은 인류에게 친구이자 동반자, 조력자 역할을 요구받고 있다”면서 “로봇과 인류의 공생을 모색한 결과 이런 원칙이 나타난 것”이라고 말했다.
댓글 0