○ 각계 인사 12명 초안 작성… 올해 말 제정 추진
‘로봇윤리헌장’의 기본 뼈대는 미국 과학자 아이작 아시모프 박사가 1942년 제시한 ‘로봇 3원칙’을 따를 예정이다. 로봇 3원칙은 ‘사람에 대한 공격 금지’ ‘명령 복종’ ‘로봇의 권리 인정’을 주 내용으로 하고 있다.
한국은 그동안 ‘변화한 시류’를 반영할 계획이다. 로봇이 수집한 사람의 개인 정보에 대한 문제가 대표적인 사례다. 명지대 정보공학과 김대원 교수는 “각 가정에 보급된 로봇이 가족의 개인정보나 금융정보를 범죄 집단에 넘긴다면 혼란을 가져올 게 뻔하다”며 “윤리헌장은 노동력의 대체물로 로봇을 생각한 1940년대에 미처 예상치 못한 상황을 포함시킬 예정”이라고 설명했다.
윤리헌장의 초안 작업은 과학자 의사 심리학자 변호사 공무원 등 각계 인사 12명으로 구성된 협의체가 맡았다. 중앙대 심리학과 이장한 교수는 “앞으로 로봇에 어디까지 자율을 주고 책임을 물을 것이냐가 문제의 핵심”이라며 “로봇이 인간사회의 윤리규범을 반드시 지키도록 하는 방안을 찾겠다”고 말했다.
한국보다 로봇기술이 앞선 미국과 일본 등 선진국은 1970년대 말부터 일찌감치 미래사회에 로봇이 야기할 윤리 문제를 연구해 왔다. ‘유럽로봇연구네트워크’도 지난해 ‘로봇윤리 로드맵’을 처음으로 공표하고 윤리 연구에 매달리고 있다.
○ 로봇 용도 다양해질수록 사람에 해 입힐 가능성
이런 추세라면 로봇의사의 오진이나 로봇병사의 오발사고는 적잖은 윤리 문제를 낳을 수밖에 없다는 게 헌장의 필요성을 강조하는 이들의 주장이다. 현장의 연구자들 역시 미래에 대한 대비라는 관점에서 윤리 연구의 필요성을 지지하고 있다.
성균관대 기계공학과 최혁렬 교수는 “다양한 용도로 로봇이 활용되면서 사람에게 해를 입힐 가능성이 점점 높아지고 있다”며 “연구자와 판매자, 사용자에게 윤리성을 강조하고 추후 책임소재를 가리기 위해 윤리연구가 필요하다”고 말했다.
○ 전투로봇-섹스로봇 나올 땐 윤리헌장도 한계
실제로 우리나라가 추진하는 국방로봇을 비롯해 미국에서 추진하는 미래전투시스템(FCS)은 심각한 윤리 문제를 낳을 것으로 보인다. ‘사람을 향한 공격’은 아시모프 박사의 ‘로봇 3원칙’은 물론 현재 추진하는 윤리헌장의 원칙에도 어긋나기 때문이다. 전문가들은 2020년경 스스로 판단해 전투에 임하는 전투로봇이 등장할 것으로 내다보고 있다.
산업자원부 심학봉 로봇팀장은 “국방 분야는 윤리헌장에서 제외되겠지만 언젠가 윤리 논란을 일으킬 수밖에 없다”고 말했다. 유럽도 인간의 성 윤리를 해칠 수 있는 섹스로봇을 개발하느냐 마느냐를 놓고 논란에 휩싸였다.
예측 불가능한 상황을 걱정하는 시각도 있다. 인공지능의 발전 속도로 미뤄 볼 때 사용자와 제조자 중심의 윤리헌장은 결국 한계에 봉착할 수밖에 없기 때문이다. 김대원 교수는 “로봇이 ‘자아(自我)’를 갖기 시작하면 로봇의 윤리 문제는 새로운 국면을 맞는다”며 “로봇이 똑똑해지면 인터넷 이상으로 새로운 사회 문제를 낳을 것”이라고 내다봤다. 지난해 말 영국 정부도 50년 뒤 로봇이 인간과 동등한 권리를 주장할 것이라는 미래분석 보고서를 내놓기도 했다.
로봇윤리헌장은 6월 초 인터넷 카페를 통해 일반에 공개된 뒤 10∼12월 공표되며 추후 초등 교과서에도 실릴 예정이다.
박근태 동아사이언스 기자 kunta@donga.com
댓글 0