인공지능(AI) 기술이 눈부시게 발전하고 있지만 AI를 불신하는 사람도 적지 않다. 이런 사람에게는 AI가 만들어 낸 결과를 전할 때 결과가 만들어진 이유와 과정을 함께 설명하는 ‘설명 가능한 AI’를 활용하면 도움이 된다. 설명 가능한 AI의 중요성이 큰 분야 중 하나는 추천 시스템 영역이다. 시스템이 제공한 추천 결과를 사용자가 이해하고 받아들일 때 부가적인 설명이 붙으면 AI에 대한 신뢰도와 활용도를 높일 수 있다. 미국 펜실베이니아주립대와 캘리포니아대 공동 연구진에 따르면 추천 결과에 대한 상세한 설명은 사용자가 인식하는 추천 성능을 높이고 전반적인 사용자 경험을 개선하는 데 효과가 있는 것으로 나타났다.
연구진은 실험에 세 가지 대표적인 추천 방식을 활용했다. 사용자의 선호도와 제품 특성을 매칭하는 ‘콘텐츠 기반 추천’, 유사한 선호도를 가진 사용자를 매칭하는 ‘협업 필터링’, 인구통계학적 특성을 기반으로 사용자에게 맞춤화하는 ‘인구통계학적 필터링’이 그것이다. 각각에 설명이 포함된 추천 결과를 제시했을 때 추천 시스템에 대한 사용자 신뢰도가 어떻게 달라지는지 분석했다. 연구진은 실험 참여자 235명을 모집해 조건별로 그룹을 나눠 영화 추천 시스템을 사용해 보도록 하고 사용 경험을 분석했다. 참여자들은 시스템을 통해 영화를 추천받은 후 사용 경험 및 심리적인 요소를 알아보는 문항에 응답했다.
분석 결과 추천 방식에 따라 추천 시스템에 대한 신뢰도가 달라지는 것으로 나타났다. 사람들은 협업 필터링 방식으로 제시된 추천을 가장 신뢰했다. 이 방식에 대해서는 심지어 추천 품질이 좋지 않은 상황에서도 높은 신뢰도가 유지됐다. 이는 나와 유사한 집단의 사람들이 특정 제품을 선호한다는 구체적인 정보가 덧붙여졌을 때 AI 추천에 대한 사람들의 신뢰도를 높일 수 있음을 보여준다. 이때 인구통계와 같은 피상적인 정보만으로는 충분하지 않았고, 특정 제품에 대한 집단적 취향과 선호도를 구체적으로 반영하는 정보가 제공됐을 때 신뢰도가 높았다. 콘텐츠 기반 추천 방식이 두 번째로 높은 신뢰도를 얻었다. 자신의 개인적인 선호나 취향이 추천에 잘 반영돼 있다고 느껴지면 신뢰도를 높이는 데 도움이 된다는 의미다.
이런 분석 결과를 활용하기 위해 협업 필터링 시스템을 설계하는 디자이너는 사회적 지지를 이끌어내는 조회나 클릭 및 공유 수 등 다양한 지표를 개발하고 이를 사용자 인터페이스(UI)에 반영하는 방법을 고민해볼 수 있다. 콘텐츠 기반의 추천 시스템을 기획하고 있다면 UI에 정체성을 강화하는 요소를 집중해 추천 시스템의 결과가 사용자의 선호와 직접적으로 관련 있고 개인의 취향을 잘 반영한다는 사실을 전달할 필요가 있다. AI 서비스 설계자가 사용자에게 전달되는 설명 장치에 좀 더 신경을 쓴다면 AI 추천 시스템의 신뢰도를 높이는 데 도움이 될 것이다.
댓글 0