KAIST, 값싸고 2.36배 더 빠른 ‘AI 가속기’ 개발

  • 동아일보
  • 입력 2024년 7월 9일 03시 00분


‘엔비디아 독주 막을 기술’ 평가
“메모리 확장 비용 절감에 기여”


세계적으로 생성형 인공지능(AI) 경쟁이 심화되며 AI 가속기 가격이 천정부지로 오르는 가운데, 국내 연구진이 저렴한 가격의 고용량·고성능 AI 가속기를 개발했다고 8일 발표했다.

KAIST는 이날 정명수 전기및전자공학부 교수팀이 그래픽처리장치(GPU)를 적게 사용하고도 고용량의 AI 연산을 처리할 수 있는 기술을 개발했다고 밝혔다.

시장의 90% 이상을 점유하고 있는 엔비디아의 AI 가속기는 GPU와 연산 속도를 빠르게 해주는 고대역폭메모리(HBM)로 구성돼 있다. GPU의 내부 메모리 용량은 수십 GB(기가바이트)에 불과해 수십 TB(테라바이트)의 메모리를 필요로 하는 AI를 가동하려면 고가의 GPU 여러 개를 연결해야 했다.

연구팀은 메모리 용량을 크게 늘릴 수 있는 차세대 메모리 연결 기술인 ‘컴퓨트익스프레스링크(CXL)’ 기술을 활용해 GPU를 적게 사용하고도 처리 속도를 높일 수 있는 기술을 개발했다. GPU와 CXL을 통해 기존 기술보다 2.36배 빠르게 AI 서비스를 구동하는 데 성공했다. 정 교수는 “대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 것”이라고 했다.

#인공지능#ai 가속기#kaist
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0