오픈AI(OpenAI)의 대규모 언어 모델(이하 LLM, Large Language Model) ‘챗GPT’는 오늘날 가장 유명한 인공지능 서비스라고 해도 과언이 아닐 정도로 많은 인기를 모았습니다. 이에 구글(Google)은 ‘제미나이(Gemini)’, MS는 ‘코파일럿(CoPliot)’을 공개하며 오픈AI와 맞설 준비를 마쳤습니다. 메타와 X를 포함한 주요 정보통신기업도 저마다 다른 개성 혹은 기능을 가진 인공지능 서비스를 선보입니다.
애플 시리 / 출처=애플
그런데, 이 가운데 유독 애플은 이렇다 할 활동을 보이지 않습니다. 앞서 음성인식 인공지능 비서 서비스 ‘시리(Siri)’를 공개하고, 이 서비스의 기능 개선 정도만 했을 뿐입니다. 그러던 중 2024년 2월 열린 주주총회에서 팀 쿡 애플 CEO는 “2024년 말 생성 인공지능의 새로운 지평을 열고 사용자에게 큰 도움을 줄 것이다. 생산성 증가, 문제 해결 등 혁신적인 기회도 열 것이다.”라고 밝혔습니다.
애플이 인공지능 서비스를 만든다는 소식을 들은 업계 관계자들은 열광했습니다. 하지만, 팀 쿡 애플 CEO는 이 서비스의 형태와 효용, 성능을 일절 공개하지 않았습니다. 이에 업계에서는 애플의 신제품, 논문과 특허 등을 분석해 이들이 어떤 인공지능 서비스를 만들지를 가늠하는 중입니다. 지금까지 어떤 정보가 나왔을까요?
애플 M3 칩을 탑재한 맥북 에어 / 출처=애플
이어 애플은 인공지능 서비스를 비전 프로, 애플 워치 등 다양한 기기에 이식할 것으로 예상합니다. 팀 쿡 애플 CEO는 주주총회에서 ‘애플의 인공지능 서비스는 사용자의 삶과 일상에 엮여 있다’고 말했습니다. 이어 애플 비전 프로의 인공지능 사물 추적, 애플 워치의 인공지능 심박수 알림과 운동 종류 추적, 사고 여부를 감지해 자동으로 구조를 요청하는 아이폰의 기능을 소개했습니다.
애플이 최근 공개한 오픈 소스와 논문을 보면, 이들의 인공지능 서비스에 어떤 기능이 들어갈지 조금 더 예측 가능합니다. 애플이 2024년 초 공개한 오픈 소스 인공지능 서비스 ‘MGIE(MLLM Guided Image Editing)’은 문자와 사진, 동영상과 소리 등 다양한 콘텐츠의 분석을 결합해서 결과를 만듭니다. 사람이 하는 말의 뜻을 더 정확하게 깨닫기 위해서입니다.
예를 들어 ‘더 건강한 피자를 만드는 방법은?’이라는 질문을 들으면, 사람은 손쉽게 ‘우리 몸에 유익한 재료로 만든 피자’를 떠올립니다. 하지만, 인공지능은 ‘건강한’이라는 말의 뜻을 제대로 이해하지 못해 결과를 내지 못하거나 엉뚱한 답을 내놓습니다. MGIE는 이것을 막고, 인공지능 서비스가 더욱 정확하게 질문을 알아듣고 답을 내도록 도울 서비스가 될 전망입니다.
애플의 연구원들이 공개한 대규모 언어 모델의 기술 논문도 위와 비슷한 내용을 다룹니다. 애플 시리의 성능을 더 좋게 할 목적으로 쓰여진 이 논문에는 ‘참조 해결’이라는 기술이 등장합니다. 인공지능 서비스가 화면에 쓰여진 글의 구문을 분석, 맥락을 이해하고 결과물에 반영하는 원리입니다. 이 기술을 쓰면 사람이 '저것'이나 '아래에 있는' 등 내용이 모호한 질문을 해도, 인공지능 서비스가 화면 분석 결과를 토대로 질문을 더 정확히 파악합니다.
IT동아 차주경 기자(racingcar@itdonga.com)