‘전기 먹는 하마’ AI 데이터센터 고효율 절실
전력 소비 최소 2배 이상 늘어나 대책 마련 시급
HBM도 결국은 ‘저전력’이 핵심 키워드
인공지능(AI) 시대에 초미의 관심사인 전력 소비 폭증 문제를 잡기 위해 삼성전자와 SK하이닉스가 저전력 메모리 반도체 개발에 적극 나선다.
18일 업계에 따르면 이정배 삼성전자 메모리사업부 사장은 이달 초 ‘세미콘 타이완 2024’에서 AI 시대에 메모리 산업이 직면한 과제로 가장 먼저 전력 소비 증가를 꼽았다. 지난해 기준 AI 모델 훈련으로 GPU(그래픽처리장치)와 메모리 간에 전송되는 데이터 양은 하루 200ZB(제타바이트)로 급증했고, 이는 2019년보다 6배 증가한 수치다.
김주선 SK하이닉스 인공지능(AI) 인프라 담당 사장도 AI 발전을 위해 해결할 최대 난제로 전력을 꼽았다.
김 사장은 세미콘 타이완 기조연설에서 “2028년 데이터센터가 소비하는 전력은 현재보다 최소 2배 이상을 늘어날 것으로 추정된다”며 “파트너들과 함께 고용량, 고성능에도 전력 사용량을 최소화해 열 발생을 줄인 AI 메모리를 개발하고 있다”고 말했다.
앞으로 AI 학습과 추론 수요가 지속적으로 늘어날 미래에는 더 많은 양의 데이터 처리가 필요하다. 이에 비례해 전력 소모량은 갈수록 커진다.
특히 데이터를 처리하는 과정에서 전력 소모와 발열이 생기며, 과열은 반도체와 데이터센터 성능을 저해하는 요소이기 때문이다.
AI 스타트업 허깅 페이스(Hugging Face)와 카네기멜론 대학교 연구진에 따르면 이미지 하나를 생성하는데 스마트폰을 완전히 충전하는 것만큼 많은 에너지가 소모된다.
이에 메모리 업계는 AI를 위한 다양한 메모리 솔루션을 제공해 전력 소모 문제를 해결하는 데 앞장 선다는 계획이다.
삼성전자와 SK하이닉스는 늘어나는 저전력 메모리 수요에 대응해 LPDDR 개발에 전력 투구하고 있다. 현재 7세대 LPDDR5X와 성능 업그레이드 버전인 LPDDR5T가 상용화 된 가운데, 전력 효율이 더 높은 8세대 LPDDR6 개발을 서두르는 모습이다.
특히 LPDDR을 기반으로 일반 D램보다 전력 효율을 개선한 ‘LLW(Low Latency Wide) D램’, 얇고 탈부탁이 가능해 폼팩터(제품 형태) 변화에 새 바람을 일으킬 ‘LPCAMM2’, 메모리에 연산 기능을 넣은 ‘LPDDR5X-PIM’ 등의 상용화 시기도 빨라질 수 있다.
AI 반도체용 메모리로 ‘전기 먹는 하마’라는 누명을 쓴 HBM도 전력 효율 개선에 더 속도를 낸다.
삼성전자는 6세대 HBM(HBM4)부터 맞춤형 제품 생산을 통해, 고객이 원하는 수준까지 전력 효율성을 끌어올릴 계획이다. SK하이닉스도 고객사 요청에 따라 2022년 대비 HBM 에너지 효율 2배 증가 시기를 2030년에서 2026년으로 앞당겼다.
댓글 0