뉴스 트렌드 생활정보 International edition 매체

국내 개발 인공지능(AI) ‘엑소브레인’, 인간과 첫 퀴즈 대결서 우승

입력 | 2016-11-20 16:09:00


"엑소브레인만 혼자 3번을 답했네요.

"정답은 3번입니다! 엑소브레인, 현재까지는 만점을 기록하고 있습니다."

국내 개발 인공지능(AI) '엑소브레인'이 인간과의 첫 퀴즈 대결에서 압도적인 우승을 거뒀다. 18일 대전 유성구 한국전자통신연구원(ETRI) 본원에서 열린 EBS 장학퀴즈 '대결! 엑소브레인'에 참가한 엑소브레인은 인간 4명을 꺾고 우승을 차지했다. 엑소브레인은 600점 만점 중 510점을 획득해 2등과의 점수 차를 160점까지 벌리고 대결을 끝냈다.

엑소브레인과 대결을 펼친 상태는 '더 지니어스', '뇌섹남' 등 두뇌게임 TV 프로그램에서 활약한 방송인 오현민(한국과학기술원 수리과학과) 씨와 2016학년도 대학수학능력시험 만점자인 서울대 인문대학 1학년 윤주일 씨, EBS 장학퀴즈 왕중왕전에서 각각 상반기와 하반기 우승을 차지한 안산동산고 3학년 김현호 군, 대원외고 2학년 이정민 양 등 총 4명이었다. 기자는 이날 실제 대결과 동일한 방식으로 진행된 리허설을 참관했다. 리허설 후 진행된 실제 대결 결과에서는 다른 문제가 출제됐고, 실제 대회는 12월 31일 EBS가 방영할 예정이다.

'몸 밖의 인공두뇌'라는 뜻을 가진 엑소브레인은 ETRI 등 20개 국내 연구기관으로 구성된 컨소시엄을 통해 2013년 개발되기 시작했다. 인간의 학습 방식을 모방한 머신러닝 기술이 적용돼 구문 구조와 형태소를 분석하고 기관명, 인명 등 개체명을 인식해 자연어(한국어)의 의미를 파악한다. 사실을 나타낸 지식의 학습과 탐색, 단답형 질의응답도 가능하다.

대결은 사회자가 문제를 구술하면 제한시간 15초 동안 모든 참가자가 일제히 태블릿 PC에 답을 적어 제시한 뒤, 정답을 맞힌 사람들만 점수를 획득하는 방식으로 진행됐다. 문제는 인문, 사회, 예술, 과학 등 다양한 분야의 지식을 묻는 4지선다 객관식 10문제, 주관식 20문제로 구성돼 있었다. 질문의 길이는 보통 문장 3개 내외였고, 엑소브레인은 텍스트로 입력된 문제의 의미를 해석해 정답과 일치할 가능성이 가장 높은 답을 제출했다. 검색이 가능한 인터넷과는 연결돼 있지 않았다.

엑소브레인은 백과사전과 국어사전 등 도서 12만 권 분량의 지식을 사전에 학습한 만큼 사람이 쉽게 헷갈릴 수 있는 내용에서 강점을 보였다. 채만식 작가의 단편소설 '치숙'에서 '아름다운 여인'을 뜻하는 단어를 빈칸에 채우는 객관식 문제가 나오자, 참가자들은 일제히 2번 '경색'을 답으로 제출했다. 하지만 엑소브레인만 3번 '일색'을 답으로 선택했고 혼자 정답을 맞춰 10점을 얻었다. 오현민 씨는 "경국지색(傾國之色)을 생각하고 경색으로 답했다"며 아쉬워했다.

생소한 내용에서도 엑소브레인은 침착하게 답변을 이어갔다. 한 번은 1944년 네덜란드의 천체물리학자 헐스트의 예언 후 6년 만에 처음 검출된 전파의 이름을 묻는 문제였다. 2명은 답을 제출하지 못했고, 오 씨와 윤주일 씨는 각각 '중수소파', '마이크로파'라고 제출해 답변이 엇갈린 상황이었다. 엑소브레인이 내놓은 답은 '21㎝'. 객석에서는 파장의 길이를 쓴 것이 아니냐며 오답일 것으로 예상했지만, 역시 엑소브레인의 답이 정답이었다. 엑소브레인 프로젝트의 총괄책임자인 박상규 ETRI 책임연구원은 "사전에 학습한 내용이라면 난이도와 관계없이 대체로 정확한 답을 낼 수 있다"고 설명했다.

반대로 이전에 학습하지 않은 내용이 나오자 엑소브레인은 답을 제출하지 못하기도 했다. 혈압을 잴 때 청진기를 압박대 속에 넣어 듣는 소리를 묻는 문제의 정답은 '코로트코프음'이었지만, 엑소브레인의 답변 화면은 비어있었다. 드물게 엉뚱한 답을 내놓는 경우도 있었다.
박 연구원은 "최종 우승 확률 외에 구체적인 판단 근거를 알 수 없는 바둑 AI '알파고'와 달리 엑소브레인의 경우 왜 아무런 답도 내지 못했는지, 왜 오답을 냈는지 등 그 판단 근거를 추적할 수 있기 때문에 전문가의 의사결정을 돕는 도구로서 활용 가치가 매우 높다"고 말했다. 연구진은 내년부터 엑소브레인에 법률, 의료, 특허, 금융 등 실제 전문지식을 적용해 2020년까지 전문가 자문 솔루션을 완성하고, 2022년에는 사용 언어를 영문까지 확대할 계획이다.

다만 이번 퀴즈 대결에서는 최소한의 정보를 바탕으로 빠르게 답을 추론해내는 AI의 진면모를 보여 주지는 못했다는 아쉬운 평가가 나왔다. 단순한 사실을 맞추는 퀴즈인 데다 참가자가 일제히 답을 제시하는 방식이었기 때문이다. 이 경우 사전 지식을 데이터베이스(DB)에 저장해 두고 있는 컴퓨터가 유리할 수밖에 없다. 윤주일 씨는 "기존의 EBS 장학퀴즈 방식으로 대결했을 때는 이긴 적도 있었지만 이번에는 역부족이었다"고 말했다. 한편 엑소브레인은 수학 계산이나 시청각을 통한 인식과 판단, 복잡한 추론이 필요한 문제는 풀지 못한다.

대전=송경은 동아사이언스기자kyungeun@donga.com