[신문과 놀자!/눈에 쏙쏙 디지털 이야기]사용자 100만명 도달에 단 5일… 전 세계는 지금 ‘챗GPT’ 신드롬

  • 동아일보
  • 입력 2023년 3월 24일 03시 00분


단어 간 관계 학습한 언어모델, 사람처럼 자연스러운 대화 가능
대화 내용 기억하고 맥락 파악… 후속 질문에 대한 답변 생성
오답을 진실처럼 말할 수 있어 맹목적으로 믿는 태도 경계해야

전 세계가 ‘챗(Chat)GPT’로 떠들썩합니다. 챗GPT가 지난해 11월 30일 출시된 이후 사용자 100만 명을 돌파하는 데 걸린 시간은 단 5일이라고 합니다. 넷플릭스는 3.5년, 페이스북은 10개월, 인스타그램은 2.5개월이라고 하니, 그 어느 서비스보다 압도적인 속도로 퍼지고 있어 신드롬이라 할 만합니다.

《〈챗GPT와의 대화〉

―너에 대해 소개해줘.

“안녕하세요, 저는 오픈AI에서 훈련된 대화형 인공지능 모델인 챗GPT입니다. 저는 자연어 처리와 딥러닝 기술을 사용하여 대화를 나눌 수 있으며, 다양한 주제에 대해 대화할 수 있습니다. 또한 저는 최신 정보와 지식을 업데이트하여 상황에 맞게 대화를 진행할 수 있습니다. 언제든지 궁금한 것이 있다면 저와 대화해 보세요!”》


위의 내용은 챗GPT와 나눈 대화인데요, 제 질문에 챗GPT가 자신을 소개한 것입니다. 이처럼 챗GPT는 우리가 사용하는 언어를 이해해서 마치 사람처럼 자연스러운 대화를 할 수 있는 인공지능(AI) 챗봇입니다.

● 미리 훈련해서 문장 만들 수 있는 인공지능
챗GPT의 ‘챗’은 ‘대화’를 뜻하고, GPT(Generative Pre-trained Transformer)는 ‘미리 훈련해서 문장을 생성할 수 있는 AI’를 의미합니다. 일론 머스크 미국 테슬라 최고경영자(CEO), 샘 올트먼 미국 오픈AI CEO 등이 2015년 인공지능 연구 및 개발을 위해 설립한 비영리 기업인 오픈AI는 이를 모두가 사용할 수 있게 공개했는데요, 누구나 바로 웹브라우저에서 채팅하듯이 쉽게 이용해 볼 수 있습니다. 그것도 무료로.

챗GPT는 일종의 거대한 언어모델(LLM·Large Language Model)입니다. ‘만나서’ 다음에 오는 말(단어)은 무엇일까요? 우리는 쉽게 ‘반갑습니다’라고 예상할 수 있는데요. 그 이유는 문장은 여러 개의 단어로 구성되고, 단어들은 순서에 따라 서로 연관되어 있기 때문입니다. 이처럼 문장 속 단어와 단어 사이에는 순서가 있어, 대량의 학습 데이터에서 단어 간 관계를 학습한 언어 모델은 다음에 올 단어를 예측할 수 있습니다.

방대한 데이터를 활용해 학습 모델을 만들고, 사람이 직접 개입하여 모델의 ‘유용성’, ‘진실성’, ‘무해성’ 등에 대한 성능을 평가하여 피드백함으로써 질문자의 의도를 좀 더 정확히 이해하고, 훨씬 더 자연스러운 문장을 생성할 수 있도록 훈련을 시켰다고 합니다.

이러한 방법은 인간 트레이너가 대화하면서 인공지능 모델의 실수를 바로잡아 모델을 최적화하는 것으로 RLHF(Reinforcement Learning from Human Feedback·인간 피드백 기반 강화학습)라고 합니다.

● 이전 대화 기억했다가 다음 답변 때 사용
챗GPT 출시 이전에도 ‘심심이’, ‘이루다’ 등 인공지능 챗봇이 있었는데요, 다른 챗봇과 무엇이 다르길래 이렇게 온 세계가 챗GPT에 열광하는 것일까요?

오픈AI 블로그에서 ‘챗GPT는 대화 형식을 통해 후속 질문에 답하고, 실수를 인정하고, 잘못된 전제에 이의를 제기하고, 부적절한 요청을 거부할 수 있다’고 챗GPT를 소개하고 있습니다.

챗GPT는 사용자와 이전에 나눈 대화 내용을 기억해뒀다가 후속 질문에 대한 답을 할 때 사용합니다. 그리고 사용자의 질문에 잘못된 답을 해 이를 지적하면 실수를 인정하고, 반대로 사용자가 잘못된 전제를 가정하고 질문을 할 경우 이의를 제기하기도 합니다. 기존 챗봇이 사용자의 질문에 자동화된 답변만 내놓던 것과 달리 챗GPT는 사용자의 자유로운 질문을 이해하고 맥락을 파악하여 좀 더 정교한 답변을 내놓습니다. 어떤 주제의 질문이든 척척 알아듣고 술술 대답하여 BBC나 가디언 등은 ‘가장 대화할 만한 AI 챗봇’이라고 평가했다고 합니다.

챗GPT는 이 글을 작성하는 2023년 3월 21일 현 시점에 가장 강력한 성능의 높은 수준을 보이는 인공지능입니다. 사용자의 질문에 인간이 작성한 텍스트를 기억했다가 보여주는 것이 아니라 자신이 배워서 ‘생성’한 답변이라고 자신 있게 말하는데요. 챗GPT의 사고 과정은 딥러닝 언어 모델의 특성상 인공지능 설계자도 어떻게 그러한 결과가 도출되었는지 알 수 없는 블랙박스입니다. 챗GPT(GPT-4)가 계산해야 하는 값(가중치, 매개변수)이 약 100조 개라고 추정한다고 하니 너무 복잡해서 어떻게 계산되는지 알기 어려운 것입니다.

● 오답을 정답처럼 말할 수도… ‘환각 현상’ 주의

이러한 챗GPT를 사용할 때 주의할 점이 있습니다. 챗GPT 사이트의 첫 화면에도 그 한계에 대해 안내하고 있습니다.

챗GPT는 때때로 잘못된 정보, 유해한 지침이나 편향된 콘텐츠를 생성할 수 있습니다. 오답을 마치 진실인 것처럼 그럴듯하고 자신 있게 답변하는 문제를 가리켜 인공지능의 ‘환각’이라고 합니다. 존재하지 않는 것을 보는 환각처럼 챗GPT가 없는 정보, 잘못된 답변, 편향된 결과를 제시하는 경우 인간이 받게 될 영향을 우려해 오픈AI의 CEO 올트먼도 ‘환각 현상’에 주의를 기울여야 한다고 했습니다.

많은 전문가들은 앞으로 챗GPT가 가져올 파급력은 인터넷보다 클 것이라고 합니다. 이 혁신적인 도구를 무조건적으로 거부하는 것도, 맹목적으로 신뢰하는 것도 바람직하지 않습니다. 챗GPT가 내놓는 결과를 비판적으로 수용하는 자세가 필요합니다.

#챗gpt#인공지능#환각 현상
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0