뉴스 트렌드 생활정보 International edition 매체

똑똑해지는 인공지능… 단순 기계인가 별도 인격체인가

입력 | 2017-02-25 03:00:00

[토요이슈]‘로보 사피엔스’ 시대 로봇의 권리




인공지능(AI) 기술이 발전하며 지금껏 인간만이 할 수 있었던 다양한 분야로 진출하고 있다. 미래에는 인간과 비슷한 능력을 가진 AI의 권리도 논쟁거리가 될 것으로 전망된다. AI 로봇이 원격 화상강의 시스템을 다루며 교사로 활동하는 모습을 그린 상상도. 과학동아 제공

사람처럼 완벽한 인공지능(AI)을 갖춘 로봇은 어떻게 대우해야 할까. 자아를 가지고 있으니 하나의 인격체로 보아야 할까, 아니면 단순히 인간의 명령을 듣고 수행하는 기계장치로만 생각해야 할까.

최근 AI 기술이 급속도로 발전하면서 새로운 사회적 논의가 필요하다는 주장이 나오고 있다. 아직 AI가 인간을 직접 위협할 수준은 아니지만, 언젠가는 AI와 관련한 법과 제도 정비가 필요하다고 보고 이에 대응하자는 목소리다.



완벽한 AI 로봇 등장, 新노예제도 탄생할까

유럽연합(EU) 의회는 지난달 12일(현지 시간) 벨기에 브뤼셀에서 열린 EU 의회에서 AI 로봇의 법적 지위를 ‘전자인간(electronic personhood)’으로 지정하는 결의안을 찬성 17표, 반대 2표, 기권 2표로 통과시켰다. 국가 차원에서 AI의 법적 지위와 개발 조건, 활용 방안 등에 대한 기술적, 윤리적 가이드라인을 제시한 것이다.

인류 역사상 인간들의 공동체인 ‘법인’을 제외하면 사람이 아닌 존재가 법적 지위를 가진 사례는 없었다. EU의 결의안은 이런 전자인간의 법적 권리를 처음으로 인정했다는 점에서 흥미롭다. 로봇은 사람이 비용을 치르고 거래할 수 있는 제품이지만, AI를 갖춘 로봇도 일정한 권리를 갖고 행동할 수 있도록 제도를 마련한 것이다. 권리는 가졌지만 주인에게 종속적인 존재, 즉 AI를 인간을 위해 봉사할 수 있는 ‘노예’ 계급으로 구분한 셈이다.

EU 의회는 AI가 인간에게 저항하는 것을 막는 방법도 고려했다. 이번 결의안에 따르면 로봇이 인간에 반항하는 등의 비상상황에 대비해 언제든 로봇의 움직임을 멈출 수 있는 ‘킬 스위치’를 마련해야 한다. AI가 인간의 안전을 해칠 수 없도록 안전장치 역시 마련한 것이다. 또 “킬 스위치가 없는 로봇은 EU가 수입하지 않는다”는 내용도 담았다.

이 밖에 ①로봇이 인간을 해칠 수 없고 ②앞의 항목(①)에 위배되지 않는 한 인간의 명령에 복종하며 ③앞의 두 항목(①과 ②)에 위배되지 않는 한 자기 스스로도 지켜야 한다는 ‘로봇 3원칙’ 역시 의무적으로 적용하도록 했다. EU는 이번 결의안에서 이런 규범과 규칙을 논의할 전문기구 신설도 제안했다. 실제로 로봇 3원칙은 로봇을 철저하게 인간을 위한 도구로 생각하기 때문에 고안됐다는 분석도 있다. 안전하고, 쓰기 편하며, 고장 나지 않아야 좋은 도구로 볼 수 있기 때문이다.

매디 델보 EU 의회 조사위원은 결의안 발표에 대해 “EU는 AI 로봇을 전자인간으로 규정해 로봇은 인간에게 도움을 주는 존재라는 것을 법적으로 명확히 한 것”이라고 밝혔다.

인간형 로봇 전문가인 한재권 한양대 융합시스템학과 교수는 “EU의 결의안은 로봇이 경제 활동을 할 경우를 감안해 내놓은 제도로 보인다”며 “로봇의 활동에 합법적으로 세금을 걷고, 이를 공익에 쓸 수 있는 제도를 새롭게 고민하는 것이 가능해졌다”고 설명했다.



인간 뛰어넘는 ‘초(超)AI’ 어떻게 막을까

AI는 크게 두 가지로 나뉜다. 사람처럼 자아를 가지고 주체적으로 사고할 수 있으면 ‘강한 AI(strong AI)’로, 그렇지 못한 AI는 ‘약한 AI(weak AI)’로 구분한다. 수많은 영화나 만화, 소설 속에 등장하는 AI는 대부분 ‘강한 AI’다. 영화 ‘터미네이터’에서 인간에게 반항하는 AI ‘스카이넷’이 대표적인 예다.

최근 주목받고 있는 현실사회의 AI는 모두 ‘약한 AI’로 구분된다. 최근엔 다양한 자료를 분석하고 판단해 필요한 명령어를 스스로 만들어 내는 수준까지 도달했다. 흔히 머신러닝, 혹은 딥러닝 등으로 불리는 기술이다. 이 기술은 현재까지 개발된 각종 AI 중 가장 수준 높은 기술로 꼽힌다. 바둑 AI ‘알파고’나 의학용 AI ‘왓슨’ 등도 모두 약한 AI로 구분한다. 현 시점에서 강한 AI가 현실세계에 등장할 가능성은 매우 낮다. 또 제작 원리가 전혀 다르기 때문에 약한 AI가 강한 AI로 발전할 우려도 거의 없다.

그러나 EU의 사례처럼 AI의 급속한 발전을 법과 제도로 제한하기 위한 노력은 계속 감지된다. 강한 AI는 인간의 통제를 벗어날 우려가 있으니 미리부터 법과 제도적 제한이 필요하기 때문이다. 이 밖에 강한 AI를 개발하는 사람은 그 기본 성격을 인간에게 종속적으로 만들도록 강제할 필요가 있다는 주장도 있다. 쥐가 선천적으로 고양이를 두려워하는 것처럼, 로봇이라는 ‘종(種)’ 그 자체는 무조건 인간을 사랑하고 복종하게 만들어 안전을 확보하는 식이다.



유엔 비롯해 한국도 AI 대응책 고심

EU뿐 아니라 유엔도 AI 대응을 공식 의제 중 하나로 거론 중이다. 유엔 제네바사무소는 국제적 논의 사항인 특정재래식무기금지협약(CCW), 즉 특수무기 금지협약 중 하나로 2014년부터 ‘LAWS(치명적자율무기시스템)’ 전문가 회의를 열고 있으며 중요 안건으로 ‘킬러로봇 개발 제한’을 다루고 있다.

국내에서도 이런 목소리가 나온다. 국회 미래창조과학방송통신위원회 강효상 자유한국당 의원(비례대표)은 23일 다른 의원 15명과 함께 ‘지능정보사회 기본법’을 대표 발의하고, AI사회에 대응하기 위한 ‘지능정보사회 전략위원회’를 설치할 것을 건의했다. 이 안건에는 △로봇이 인간의 프라이버시를 보호하고 안전 규정을 준수할 것 △AI를 개발하는 연구기관은 자체적인 기술윤리위원회 등을 마련할 것 등의 내용이 담겼다.

최은창 미국 시카고 켄트대 연구원은 “AI라면 로봇 한 가지만 생각하는 경우가 많지만 실제로 금융, 법률 등 사회 곳곳으로 녹아들어가고 있다”면서 “AI의 뼈대라 할 수 있는 알고리즘(논리구조)에 대한 효율적인 법적, 제도적 통제를 고민해야 할 시점”이라고 말했다.

전승민 동아사이언스 기자 enhanced@donga.com

관련뉴스