박명순 SKT 미래기술원장
이 중 ‘말을 알아듣는’ 단계에 먼저 도달하기 위한 글로벌 기업들의 각축전은 뜨겁다. 21일 서울 중구 을지로 SK텔레콤 본사에서 10년째 관련 기술을 이끌어온 언어 이해 AI 전문가 박명순 미래기술원장(사진)을 만나 국내 기술 발전 과정과 글로벌 시장 동향, 그 안에서 한국의 위치를 들어봤다.
2005년은 국내 언어 이해 AI의 싹이 트던 시기다. 한국전자통신연구원(ETRI)과 일부 기업들은 “(자동차) 시동 켜” 등 키워드 중심의 연구를 조금씩 시작하고 있었다. 박 원장은 “SK텔레콤도 당시 관련 전문가 6, 7명을 영입해 언어 이해 연구개발(R&D)에 막 뛰어들기 시작했다”고 말했다.
2011년 영어 대학수학능력시험의 대안으로 발표됐던 ‘니트’를 개발하기 위해 당시 언어 이해 AI 연구 명맥을 이어오던 기업들이 다수 참여했다. 수험생들의 영어 말하기 능력을 평가하기 위해 이를 이해하는 시스템 개발이 필요했던 것이다. 결국 니트는 현실화되지 못했지만 이를 계기로 2013년부터 한국어 이해 AI 연구가 본격 재개됐다. 수년간의 연구 끝에 첫 번째로 나온 성과물이 이달 출시된 언어 이해 AI 스피커 ‘누구(NUGU)’다.
박 원장이 바라보는 SK텔레콤의 위치는 이미 국내 언어 이해 AI 업계에서 선두다. 한국어 이해 AI 시장에서 국내 기업들은 유리한 고지에 있다. 하지만 박 원장은 “글로벌 시장에선 구글과 아마존, 마이크로소프트 등 쟁쟁한 경쟁자들에 비해 뒤처져 있다”고 봤다.
아마존은 이미 2014년 11월 음성제어 스피커 ‘에코’를 출시했다. 8월부터 미국에서 판매가 시작된 현대자동차의 ‘제네시스’ 모델에 아마존 자체 음성비서 서비스인 ‘알렉사’를 장착하기도 했다. 마이크로소프트(MS)도 2014년 PC용 음성비서 ‘코타나’를 출시해 최근까지 총 60억 건의 질문 답변 경험을 구축해 왔다. 애플의 음성비서 ‘시리(Siri)’가 TV로 확대 적용되는 등 기기의 저변도 넓어지고 있다.
아직까지 주변 소음(노이즈)과 목소리를 사람만큼 분별하도록 하는 작업도 남아있다. 박 원장은 “AI가 사람만큼 자연스럽게 언어를 이해하는 데 향후 5년 정도가 더 소요될 것”이라고 전망했다. 또 “다음 AI의 과제는 ‘영상 기술’이 될 것”이라며 “소리로 듣고 눈으로 본 정보를 합쳐서 이해할 수 있는 기기, 즉 로봇을 향해서 국내외 기업들 모두 달려가고 있다”고 박 원장은 설명했다.