어느새 인공지능(AI)이 우리의 일상 곳곳에 깊이 파고들어 우리의 삶을 바꾸고 있습니다. ‘챗(Chat)GPT’를 필두로 한 생성형 AI 서비스의 등장으로 누구나 쉽게 AI를 활용할 수 있게 되어 AI의 일상화가 본격화되기 시작했다고들 합니다. 13일 정부는 2024년 9090억 원의 예산을 투입해 ‘전 국민 AI 일상화’를 추진한다고 밝히기도 했습니다.
● 소설, 시, 밥상까지 다가온 인공지능
우리는 스마트폰을 사용할 때 Face ID(얼굴로 잠금화면을 해제하는 기술)를 이용해 잠금을 해제하고, 넷플릭스 같은 온라인동영상서비스(OTT)에서 영상 콘텐츠를 고르거나 스트리밍 서비스로 음악을 들을 때 인공지능의 도움을 받고 있습니다.
우리 생활에 침투한 인공지능은 이뿐만이 아닙니다. 소설이나 시를 쓸 때, 브랜드 로고나 마케팅 문구를 만들 때, 회의나 강의 내용을 텍스트로 변환할 때, 오늘 저녁 레시피를 추천받을 때, 기업의 채용과 인사에 인공지능 평가 시스템을 활용하는가 하면 국정감사를 준비하는 데도 인공지능의 도움을 받는다고 합니다.
인공지능의 발전은 우리에게 더 편리하고 혁신적인 경험을 제공하지만, 이러한 기술의 진보는 항상 그에 따른 다양한 문제를 동반합니다. AI 일상화로 인공지능이 개인과 사회에 미칠 수 있는 광범위한 영향과 잠재력을 고려할 때, 인공지능이 야기하는 문제는 우리 모두의 관심이 필요한 주제이므로 관련 내용을 이번 지면에 담아보려 합니다.
● 인공지능 활용 면접서 성차별 사건
AI 활용 과정에서 불거진 차별 논란은 더 이상 낯선 이슈가 아니죠.
2017년 아마존은 AI 채용 시스템을 도입하려 했으나 ‘여성’이란 단어가 들어간 이력서에 AI가 불이익을 주는 것으로 확인되어 도입 전 취소되었습니다. 2020년 영국에서는 신종 코로나바이러스 감염증(코로나19)으로 고교 졸업 시험을 취소하는 대신 인공지능 시스템을 활용해 성적을 산출했는데 부유층이 다니는 사립학교 학생들에게 공립학교 학생들보다 높은 점수가 부여돼 논란이 커졌고, 영국 정부는 인공지능을 기반으로 한 성적을 철회했습니다. 최근에도 있었습니다. 올 8월에 일어난 일인데요, 미국 경찰이 얼굴 인식 기술 사용 과정에서 무고한 흑인 여성을 용의자로 오인해 인공지능이 인종 차별을 악화시킨다는 우려를 부추긴 사건이 발생하기도 했습니다.
인공지능의 성별, 인종, 빈부격차에 대한 차별은 어쩌면 충분히 예견된 문제였습니다. 요즘의 인공지능은 기계학습 알고리즘으로 구현된 것으로, 데이터를 학습한 결과입니다. 그 데이터에는 우리 사회의 역사적, 문화적 편견과 차별, 불균형 등이 반영되어 있을 것이고, 이를 그대로 학습한 인공지능은 데이터의 편향을 재현할 수밖에 없습니다.
● 편향과 폐쇄적 사고 강화될 우려도
인공지능의 편향으로 인한 차별 문제와 함께 우리 학생들에게 알리고자 하는 것은 인공지능의 개인 맞춤형 추천 알고리즘이 끼치는 부정적 영향입니다.
소셜미디어에 접속할 때 친구와 내 계정의 첫 화면에 배열된 콘텐츠가 다른 것은 우리가 무엇을 좋아할지 분석해 추천해주는 알고리즘이 작동하고 있기 때문인데요, 이러한 기능은 매우 편리하지만, 동시에 ‘에코 체임버(Echo Chamber)’와 ‘필터 버블(Filter Bubble)’을 형성해 사람들의 편향을 증폭하고 우리 사회의 다양성을 제한하는 주요 요인으로 작용하고 있습니다.
에코 체임버는 방송에서 메아리 효과를 위해 만든 폐쇄 공간을 가리키는 용어인데요, 요즘 인터넷상에서 자신과 생각이나 신념, 견해가 비슷한 사람들끼리 소통하고 정보를 공유하여 자신들이 가진 신념을 더욱 확신하고 강화하는 상황을 나타내는 데 사용합니다. 이는 그룹 내 의견 일치를 강조하며 다른 의견을 거부하는 경향을 보여 극단주의의 배경이 되기도 한다고 합니다.
그리고 필터 버블은 인공지능 추천 알고리즘에 의해 개인화된, 즉 필터링된 정보에 갇힌 모습을 비유적으로 표현했는데요, 선별되어 편향된 정보만 접하다 보면 사람의 인식 구조도 한쪽으로 치우쳐 바뀔 수 있음을 우려한 용어입니다.
에코 체임버와 필터 버블 모두 폐쇄적이고 제한된 정보에 노출되는 것의 위험을 지적하고 다양한 시각과 의견을 공유하고, 개인과 사회에 대한 이해와 관점을 풍부하게 하기 위한 노력이 필요함을 강조하고 있습니다.
인공지능 추천 알고리즘의 문제는 2021년 ‘페이스북 페이퍼’로 불리는 내부 문건 폭로 사건을 통해 드러났습니다. 당시 증언과 관련 기사에 따르면 페이스북에 많은 극단주의 단체가 활동하는데, 그들 대부분은 페이스북의 추천 도구 때문에 가입했다고 합니다. 페이스북의 알고리즘이 가짜 정보와 혐오 발언, 인종 간 폭력을 조장한다는 주장도 제기되었습니다. 그리고 자회사 인스타그램이 10대 정신건강에 악영향을 끼친다는 연구 결과를 알면서도 이에 관한 알고리즘을 방치했다는 사실이 폭로로 드러나기도 했습니다.
● 공존의 방법 찾아야
이러한 위험과 우려가 있으니 인공지능 개발과 사용을 당장 중단해야 할까요?
그럼에도 불구하고 우리는 인공지능과 공존해야 할 것입니다. 인공지능은 다양한 분야에서 혁신을 이끌고, 인류의 생존 자체를 위협하는 기후 위기 문제를 해결하는 데 꼭 필요한 도구이기 때문입니다.
인공지능의 부작용에 대한 걱정만 할 것이 아니라 우리 모두 인공지능의 명암을 잘 이해하고, 인공지능에 얽힌 위험과 문제를 해결하기 위한 노력에 관심을 기울여 어떻게 하면 인공지능을 발전적 방향으로 사용할 수 있을지 함께 모색하는 것이 필요합니다.
우리 학생들은 가치관과 태도를 형성해 가는 중요한 시기에 있습니다. 자신이 선호하는 콘텐츠만 소비하는 것이 얼마나 위험한지에 대한 이해와 실천부터 시작해 볼까요?
댓글 0