1970년대에 등장한 마이크로 프로세서를 시작으로 1990년대에 인터넷, 2000년대에 스마트폰, 2020년 이후에는 인공지능(AI)이 정보화 시대를 이끄는 주역이다. 생성되는 데이터 용량도 가파르게 증가 중이다. AMD 자료에 따르면 2020년 기준, 인터넷 공간에서 사용 가능한 용량이 약 64 제타바이트(ZB)에 달하고 수년 안에 200 ZB를 넘어설 전망이다.
인공지능 시장의 성장동력은 방대한 데이터다. 인공지능 오픈소스 커뮤니티 중 하나인 허깅 페이스(Hugging Face)에는 약 74만여 이상 인공지능 모델이 존재할 정도다. 인공지능이 생성한 이미지 수도 2023년 기준 155억 장을 돌파했다. 인공지능 도구를 쓰는 사람은 전 세계 3억 1400만 명에 이른다.
빠르게 성장 중인 인공지능 시장에서 AMD는 클라우드와 데이터센터 등 산업군에서 소비자 시장까지 아우르는 전략을 제시했다. 그 중심에는 에픽(Epyc) 프로세서와 인스팅트(Instint) 인공지능 가속기, 라이젠 AI 프로세서가 있다.
세바스티앙 누스바움(Sebastien Nussbaum) AMD 컴퓨팅ㆍ그래픽스 최고 설계자 및 상무는 “AMD는 클라우드에서 엔터프라이즈(비즈니스 시장), AI PC를 하나로 연결하는 것이다. 산업을 중심으로 인프라와 콘텐츠를 개발, 배포하고 클라우드를 거쳐 최종적으로 AI PC에서 구현되는 식이다. AMD는 산업이 변화하는 시발점에서 높은 기술 역량을 가지고 다양한 혁신을 이룰 것”이라고 말했다.
5세대 에픽과 3세대 라이젠 AI로 이어지는 인공지능 플랫폼
AMD의 인공지능 전략의 시작은 데이터센터에서 시작된다. 5세대 젠(Zen 5) 중앙처리장치 설계가 적용된 5세대 에픽 프로세서, 지난해 선보인 인스팅트 MI300 계열 인공지능 가속기 등이 주력이다. 대규모 연산 플랫폼으로 구성되는 데이터센터는 효율과 성능이 중요하다. 5세대 에픽 프로세서는 최대 192 코어, 384 스레드에 달하는 처리 능력에 신뢰성을 높인 새 입출력 컨트롤러를 더해 경쟁사간 격차를 더 늘릴 예정이다.
Zen 5 설계의 장점은 데이터 이동 대역을 확장하고 인공지능 데이터 처리를 위한 기능을 대거 적용한 것이다. 하지만 AMD는 이와 별개로 칩의 모듈화를 통해 여러 산업군에 대응하고자 했다. 칩 자체를 블록으로 구성하면서 데스크톱ㆍ노트북 PC용 중앙처리장치, 서버, 임베디드, 클라이언트 등 다양한 형태로 구성하는 식이다. 라이젠 9000 시리즈, 라이젠 AI 300 시리즈 등도 이런 설계 방식을 따른다.
인스팅트 MI300은 AMD가 야심 차게 선보인 차세대 인공지능 가속기로 3세대 CDNA (CDNA 3) 설계를 적용해 연산 성능을 높였다. 무엇보다 처리장치와 데이터 입출력, 캐시(예비) 메모리 등을 모듈화한 칩렛(Chiplet) 구조로 크기는 줄이고 성능과 전력 효율성은 최대한 확보한 점이 특징이다.
제품은 기본적으로 인공지능 가속기인 인스팅트 MI300X가 있으며, x86 기반 중앙처리장치와 인공지능 가속기를 결합한 인스팅트 MI300A로 나뉜다. 인스팅트 MI300X는 전용 가속기로 AMD 에픽 프로세서와 조합하는 것 외에 다른 중앙처리장치 기반 시스템과도 조합 가능하다. 인스팅트 MI300A는 24코어 구조의 중앙처리장치가 기본 제공되므로 중소 규모의 데이터센터에서 최적의 효율을 기대할 수 있다.
라이젠 AI 300 시리즈 가속처리장치(APU)는 노트북 PC로 인공지능 관련 환경을 경험하는 최종 종착지의 역할을 맡는다. 장치 내부에는 Zen 5 설계 기반 코어가 배치되고 3.5세대 RDNA(RDNA 3.5) 설계의 그래픽 처리장치(GPU)와 자일링스(Xilinx) 기술을 담은 신경망 처리장치(NPU)까지 더했다.
데이터센터에서 AI PC까지 ‘하이브리드 AI’ 구현이 목표
AMD는 자사의 하드웨어 제품이 다양한 산업 환경에 공급되고 있으며 결과적으로 데이터센터에서 소비자가 쓰는 AI PC까지 이어지는 ‘하이브리드(Hybrid) AI’ 환경을 구축하는 것이 목표다. 이를 위해 여러 기업과 협업하면서 인공지능 애플리케이션이 상호작용하는 방법을 고민 중이다. 특히 AMD는 코파일럿+ PC를 위해 마이크로소프트와 꾸준히 협력하고 있음을 강조했다.
하이브리드 AI 환경은 클라우드와 온-디바이스(On-Device)로 대표되는 AI PC의 강점을 적절히 활용하는 것에 초점이 맞춰져 있다. AI PC의 성능을 1로 가정하면 데이터센터의 처리량은 100배 이상으로 대규모 처리 능력은 대형 언어 모델(LLM) 활용에 쓰인다. 반면, AI PC는 상대적으로 데이터 처리량은 낮아 소형 언어 모델(SLM) 활용에 유리하다. 용량 확장성에서도 두 플랫폼은 차이를 보인다.
세바스티앙 누스바움 상무는 하이브리드 AI 환경의 예시로 영상 편집 과정을 언급했다. 먼저 AI PC를 활용해 결과물을 미리 확인하며 반복적인 작업을 진행한다. 이 과정에서 GPU와 NPU가 쓰인다. 어느 정도 작업물이 완성됐다면 클라우드에 등록한다. 대규모 플랫폼 위에 구축된 인공지능은 작업물을 빠르게 처리하고 마지막으로 사용자는 AI PC에 저장하면 결과물을 내려받으면 된다.
어려운 과정이지만, AMD는 통합 인공지능 소프트웨어를 통해 애플리케이션 개발사가 라이젠 AI 300 프로세서의 자원을 최대한 쓸 수 있도록 지원할 예정이다.
차세대 라이젠 AI 프로세서의 개발 방향에 대해서도 언급됐다. 1세대와 2세대 라이젠 AI 프로세서는 간단한 합성신경망과 오디오 처리를 목표로 했다. 성능도 10 TOPS~16 TOPS(초당 1조회 정수연산)에 불과했다. 3세대 라이젠 AI 프로세서는 자연 언어 처리와 생성형 AI에 대응하기 위해 성능을 50 TOPS로 높였다. 차세대 제품에 와서는 신생 및 대규모 언어 모델에 맞춰 성능을 높일 예정이다.
세바스티앙 누스바움 상무는 “하나의 설계로 성과를 내는 것은 우리의 목표 중 하나일 것이다. AMD는 더 많은 상호작용이 가능한 기회를 제공하고 싶다. 통합 인공지능 소프트웨어와 효율적인 다중작업이 가능한 환경을 구축해 최고의 환경을 만들어 나갈 것”이라고 말했다.
댓글 0