‘신비월드’는 세계 각국에서 세상을 이롭게 이끄는 혁신적인 기업과 새로운 정보기술(IT) 소식들을 소개합니다. ‘파괴적 혁신’을 꾀하는 스타트업부터 글로벌 주요 기업까지, 빠르게 변해가는 ‘신(新) 글로벌 비즈니스’를 알차게 전달하겠습니다.
이번 신비월드는 ‘우리는 엔비디아의 시대에 살고 있습니다(上)’의 후속편입니다. 16일 기사(https://n.news.naver.com/mnews/article/020/0003553586?sid=104)를 먼저 읽어보시기를 권합니다.
‘게임 덕후’가 만든 슈퍼컴퓨터
1993년 미국 캘리포니아주 서니베일의 한 아파트 월세방에서 사업을 시작한 회사가 있었다. 게임 화질이 점차 중요해질 것으로 전망한 창업자들은 사업을 위해 각자 잘나가던 기술 회사까지 관뒀다. 한 차례 폐업 위기를 넘긴 이 회사는 2000년대 그래픽카드 ‘지포스(GeForce) 시리즈’로 게임 업계를 휩쓸었다. 반도체 기업 엔비디아 이야기다.
미 스탠퍼드대에서 컴퓨터 그래픽을 공부하던 대학원생 이안 벅은 공부만큼 게임을 좋아했다. 그는 2000년 23개의 지포스를 연결해 ‘퀘이크’라는 게임을 즐겼다. 그는 “8K 해상도의 첫 번째 게임 장비였다”며 “게임을 위한 장비가 벽 한쪽을 통째로 차지했는데, 정말 아름다웠다”고 회상했다. 이때만 해도 엔비디아는 게이머들 사이에서만 핫한 회사였다.
그런데, 벅처럼 게임과 컴퓨터를 모두 잘 아는 일부 연구원이 그래픽처리장치(GPU)를 게임 이외의 용도로 활용하기 시작했다. 분자 관련 모델을 만들던 한 연구원은 연산 작업에 대학에 있던 슈퍼컴퓨터 대신 전자 매장에서 구매한 GPU를 사용했다. 몇 주가 걸릴 일이 몇 시간 만에 끝났다.
한창 게임에 심취해 있던 벅도 GPU의 잠재력을 발견한 이들 중 하나였다. 그는 게임에서 친구들에게 수류탄을 던지는 것 말고도 다른 곳에 GPU를 사용할 수 있을지 궁금했다. 미국방위고등연구계획국(다르파·DARPA)의 지원을 받던 벅은 지포스의 프로그래밍 도구인 셰이더(上편 참고)를 해킹해 다량의 연산을 빠른 속도로 해치우는 슈퍼컴퓨터를 개발했다. GPU를 활용한 ‘저예산 슈퍼컴퓨터’였다. 참고로, 미국 국방성 산하 핵심 연구개발 조직 중 하나인 다르파는 최초의 인터넷을 개발한 곳이기도 하다.
얼마 안 돼 엔비디아에 스카우트된 벅은 2004년부터 ‘쿠다(CUDA)’ 프로젝트를 감독했다. 2006년 등장한 쿠다는 엔비디아의 GPU에서만 작동하는 일종의 프로그래밍 툴이다. 그래픽카드를 그래픽 작업 이외의 용도로 활용할 수 있도록 엔비디아가 개발한 플랫폼(생태계)이다. 컴파일러, 런타임, 디버거 등(기자도 모른다. 걱정하지 말자) 여러 개발 도구들이 쿠다에 포함돼 있다. 개발자들이 기존에 만들어 놓은 것들을 불러내는 라이브러리 기능도 있다. 기초 작업이나 간단한 것들을 라이브러리에서 꺼내 쓰게 해 시간을 절약시켰다. (벅은 현재 엔비디아 부사장으로 재직 중)
젠슨 황 엔비디아 최고경영자(CEO)는 한 인터뷰에서 “모든 지포스 그래픽 카드에서 쿠다를 사용할 수 있도록 하는 것이 목표였다”며 “슈퍼컴퓨팅을 대중화하는 작업이었다”라고 회상했다.
엔비디아는 2006년 1초당 3조 회 이상의 수학 연산을 수행할 수 있는 차세대 프로세서(지포스 8800)를 출시했다. 연산 수행 능력을 끌어올리기 위해 그래픽 성능까지 일부 포기했다. 그래픽 구현보다 슈퍼컴퓨터로서의 성능에 초점을 맞춤 셈이다. 당시 미 뉴욕타임스(NYT)는 “수학적 기능을 갖추고 있는 8800은 (인텔) 슈퍼컴퓨터의 직접적인 경쟁자가 될 것”이라고 전했다.
GPU가 만든 피자
피자 제조업체부터 에너지 기업, 의료 회사까지 여러 기업 및 연구 기관에서 엔비디아의 GPU를 찾기 시작했다. 이들은 엔비디아의 GPU를 활용하면 인텔의 중앙처리장치(CPU)만 사용했을 때보다 업무 효율을 높일 수 있다는 사실을 알아챘다.
미국 식품 회사 제너럴밀스는 냉동 피자 제품을 개발하는 데 엔비디아의 GPU를 썼다. 냉동 피자를 완벽하게 만드는 일은 예술인 동시에 컴퓨터 문제다. 정교한 컴퓨터를 사용해 재료를 조합하면 실패하는 비용을 줄일 수 있다. 제너럴밀스는 엔비디아의 고성능 그래픽칩이 탑재된 컴퓨터를 선택해 작업 속도를 높였다.
미국 솔트레이크시티에 있는 의료 기기 회사 테크니스캔도 엔비디아의 GPU를 사용해 업무 효율을 높인 곳이다. 테크니스캔은 3차원 유방 스캔 장치에 엔비디아의 그래픽 프로세서를 도입했다. 기기는 스캔에서 발생한 데이터를 의료용 이미지 파일로 변환하는데, 인텔 프로세서만 사용했을 때 2시간 걸리던 작업이 15분으로 단축됐다.
테크니스캔의 엔지니어인 짐 하드윅은 “스캔 당 15분으로 단축하면 환자가 당일에 검사 결과를 얻을 수 있다. 굉장히 중요한 일”이라고 말했다.
미 최대 유전 탐사기업 슐룸베르거는 석유 매장지를 찾는데 엔비디아의 GPU와 쿠다를 활용했다. GPU로 석유 매장 징후를 스캔하는 알고리즘을 최적화 한 것. 슐룸베르거는 이를 통해 기존 컴퓨터보다 6배 이상 빠른 속도로 데이터를 분석할 수 있었다. 엔비디아 출신의 한 개발자는 “데이터 분석이 굉장히 중요했다. ‘여기 파보세요’라고 결정하는 데 1억 달러(1300억 원)가 걸려있었다”고 회상했다.
쉽게 설명해 엔비디아의 GPU가 연산 작업을 특출나게 잘해서 데이터 처리나, 시뮬레이션 시간을 굉장히 단축했다는 의미다. 수조 원 들어가는 신약 개발 과정을 떠올리면 시뮬레이션 시간을 줄이는 것이 얼마나 중요한 것인지 알 수 있다.
엔비디아의 사업이 마냥 순탄하지만은 않았다. 엔비디아는 모바일 기기에 진출하기 위해 고군분투했지만, 퀄컴에 밀려 결과적으로 실패했다. 엔비디아가 만든 태블릿PC, 텔레비전 셋톱박스, 스마트 스피커 등을 떠올릴 수 있는 사람은 거의 없을 것 같다.
2000년대 후반 리먼 브러더스 사태 때는 엔비디아도 휘청했다. 엔비디아의 기업가치가 고점 대비 80%나 추락했다. 젠슨 황은 전체 직원의 6.5% 수준인 360여 명을 해고해야 했다. 반도체 기업 AMD(황의 첫 직장이자 오늘날 엔비디아의 최대 라이벌)가 엔비디아를 인수하려고 했는데, 황이 합병 회사의 CEO 자리를 고집해 거래가 무산됐다는 이야기도 있다. AMD는 대신에 그래픽 반도체 업체 ATI를 인수했다.
5년여 동안 20억 달러(약 2조7000억 원)를 쏟아부은 쿠다는 아직 제대로 된 수익을 창출하지 못하고 있었다. 이 시기 엔비디아의 분기당 매출이 1조 원 내외였던 것을 고려하면 어마어마한 투자였다. 쿠다 사용 개발자 수는 10만 명 근처에서 정체돼 있었다.
“엔비디아 칩 좀 공짜로 보내주실 수 있나요?”
엔비디아는 GPU 슈퍼컴퓨터 생태계를 포기하지 않았다. 2009년 1월 스탠퍼드대에서 최고 컴퓨터 과학자로 꼽히는 빌 달리(현 엔비디아 수석 과학자) 교수를 데려왔다. 같은 해 3월에는 처음으로 연례 개발자 콘퍼런스인 ‘GTC’를 개최했다.
컴퓨터 과학자인 제프리 힌턴 캐나다 토론토대 교수는 첫 GTC 행사를 찾았다가 영감을 얻었다. 그는 행사가 끝나고 엔비디아에 연락해 이렇게 말했다.
“방금 머신러닝 연구자 1000명에게 엔비디아 칩을 꼭 사야 한다고 이메일을 보냈어요. 그런데, 저 혹시… GPU 하나만 공짜로 보내주실 수 있을까요?”
힌턴 교수는 신경망을 기반으로 한 인공지능(AI)을 연구하고 있었다. 당시에는 인공 지능에 관한 연구가 지금처럼 활발하지 않았고, 한계에 봉착해 있었다. 수학이나 체스(또는 바둑)처럼 규칙과 정의가 명확한 분야에서만 작동했다. 논리적 추론이나 맥락에 대한 이해가 필요한 언어 등에서는 발전이 더뎠다.
예를 들어, AI에 번역을 맡기려면 두 언어의 전체 문법과 모든 단어를 입력하고 각각의 단어와 문장을 대응시키는 수작업이 필요했다. 시간이 엄청나게 많이 걸리는 일일 뿐만 아니라, 중의적 표현을 완벽하게 소화해내지 못했다.
사물에 대한 인식에서도 장벽이 높았다. ‘고양이’를 인식하는 프로그램을 만든다고 치자. 먼저 고양이 이미지의 여러 요소를 분리해야 한다. ‘4개의 다리’와 ‘뾰족한 두 귀’, ‘수염’, ‘꼬리’ 등을 입력할 것이다. 그런 다음, AI에 귀가 접힌 스코티시폴드종 고양이를 보여주면 ‘고양이가 아닙니다’라는 답변이 돌아올 것이다. 최대한 상세하고 다양한 고양이 모습을 입력해놓을 수 있지만, 그 자체로 매우 많은 시간이 필요하다.
힌턴 교수는 기존과 다르게 인간의 뇌세포가 상호 작용하는 방식을 모방한 ‘인공 신경망’ 방식을 연구했다. 수천 장의 고양이 사진을 분석하고 그 안에서 패턴을 찾아내, 처음 본 고양이 사진도 고양이로 인식할 수 있게 만드는 것이다. 마치 어린아이가 사물을 인식하는 방식과 유사하다. 딥러닝 기술의 기본 개념이다.
그런데, ‘뉴런(신경세포)’이 문제였다. 평균적으로 인간의 뇌에는 약 1000억 개의 뉴런이 있는 것으로 알려졌다. 각각의 뉴런은 최대 1만여 개의 다른 뉴런과 연결돼 있다. 뉴런 간 접점이 100조에서 1000조 개 사이라는 뜻이다. 인간의 뇌를 흉내 내려면 컴퓨터가 뉴런들의 상호작용만큼 어마어마한 연산 능력을 발휘해야 한다. 인공 신경망 개념이 1940년에 등장하고도 진전이 없었던 이유다.
힌턴 교수는 GTC에서 답을 찾아냈다. 엔비디아 GPU의 병렬식 연산 능력이면 인공 신경망 구축이 가능할 수 있다고 판단한 것이다.
인공지능 시대의 선구자들
엔비디아는 제안을 거절했고, 힌턴 교수와 토론토대 조교들(일리야 수츠케버, 알렉스 크리제브스키)은 아마존에서 지포스 그래픽카드 2개(GTX 580)를 구입했다. 조교들은 엔비디아의 쿠다에서 시각 인식 신경망을 훈련하기 시작했다. 일주일 동안 수백만 개의 이미지를 공급했다. 힌턴 교수는 “크리제브스키 집 침실에서 2개의 GPU가 윙윙거리며 학습했다”며 “전기세는 부모님이 내주셨다고 한다”고 말했다.
인공 신경망에 ‘알렉스넷(AlexNet)’이라는 이름을 붙인 크리제브스키는 2012년 시각 인식 경연대회(ImageNet)에서 이를 선보였다. 인공 신경망을 사용한 참가자는 크리제브스키가 유일했다. 크리제브스키는 이전 대회에서 25% 수준이었던 오류율(딸기, 고양이, 강아지 같은 이미지에 라벨을 잘못 붙이는)을 15%까지 떨어뜨리며 1등을 차지했다. 대회 주최 측은 처음에는 부정행위를 의심했다. 그 정도로 큰 진전이었다.
알렉스넷에 대한 설명이 담긴 9쪽 분량의 크리제브스키의 논문은 이후 10만 번 이상 인용됐다. 엔비디아 그래픽카드 같은 특수 GPU가 범용 CPU보다 신경망을 최대 100배 빠르게 훈련할 수 있다는 내용이 논문의 핵심이다.
조교 중 한 명인 수츠케버는 “GPU가 나타났을 때 기적처럼 느껴졌다”고 표현했다. 힌턴 교수는 “쿠다 없이 머신러닝을 하는 것은 거의 불가능한 일”이라며 “패러다임이 바뀌는 빅뱅 같은 순간이었다”고 강조했다.
이름이 알려진 힌턴 교수와 일리야 수츠케버, 알렉스 크리제브스키는 회사를 차렸는데, 반년도 안 돼 구글에 인수됐다. 이들은 구글의 인공지능 연구팀 구글 브레인에 합류해 그렉 코라도, 제프 딘, 앤드류 응 등의 (현재 전설적인 인물로 꼽히는) 연구원들과 힘을 합쳤다.
비슷한 시기 페이스북(현 메타)도 당시에도 굉장히 유명했던 컴퓨터 과학자 얀 르쿤 뉴욕대 교수(현재 AI 천왕 중 한 명으로 꼽힘, 힌턴 교수실에서 연구한 적 있음)를 영입했다. 구글과 페이스북은 저명한 학자들을 서로 모셔가면서 ‘인공지능 연구자 독과점 체제’를 구축해나갔다.
구글 브레인 팀이 맡은 가장 큰 프로젝트는 당시 적자투성이였던 ‘유튜브’를 되살리기는 것이었다. 구글 브레인은 고객이 좋아할 만한 동영상을 파악하고 추천하는 방식으로 알고리즘을 다시 짰다. 또, 유튜브 비디오를 웹사이트나 블로그에 올릴 수 있게 해 유튜브를 단순 동영상 서비스가 아닌 소셜미디어 플랫폼으로 인식하도록 만들었다. 유튜브 동영상을 자동으로 재생하게 만든 것도 이들이 한 작업 중 하나였다. 이러한 기술들은 인공지능 연구에서 나온 것이고, 구글 브레인은 엔비디아의 GPU를 사용했다.
얀 르쿤 교수의 페이스북도 유튜브처럼 AI를 기반으로 비즈니스를 강화하기 시작했다. 인공지능 연구를 기반으로 페이스북과 인스타그램에서 고객에게 어떤 콘텐츠를 먼저 보여줄지를 결정했다. 우리가 매 순간 맞이하는 고객 맞춤형 광고도 비슷한 과정을 거쳐 나왔다.
그러자, 실리콘밸리에서 소수의 빅테크 기업이 인공지능 학자들을 독과점하고 있다는 비판이 나오기 시작했다. 업계에서 주목받던 일론 머스크 테슬라 CEO와 샘 올트먼 와이콤비네이터(현 오픈AI 최고경영자) 대표가 2015년 실리콘밸리 로즈우드 샌드힐 호텔에 구글과 페이스북의 주요 AI 연구원들을 초대했다.
이들은 저녁 식사에서 “현재의 독과점 구조를 깨려면 어떻게 해야 하나, 무엇을 지원해주면 될까”라고 물었다. 연구원들은 “불가능한 일”이라며 시큰둥했다. 회사의 지원이 충실해 어디로도 이직할 마음이 없다는 뜻이었다.
딱 한 명, 힌턴 교수의 제자 일리야 수츠케버만 흥미를 보였다. 수츠케버는 구글에서 머스크와 올트먼이 지원하는 비영리 연구소(설립 당시 비영리 목적이 뚜렷했음)의 수석 과학자로 자리를 옮겼다. 2015년 문을 연 챗GPT의 ‘오픈AI’였다.
“일론과 오픈AI 팀을 위하여!”
오픈AI는 사업 초기부터 인공지능 언어 모델에 집중했는데, 당시에는 사람처럼 말하게 하는 AI라는 개념이 생소했다. 오픈AI 연구원들은 인공 신경망 개념의 연장선상에서 알고리즘을 고민하기 시작했다. 엔비디아 유튜브 채널에 오픈AI의 수츠케버와 동료 개발자 안드레이 카르파티가 등장한 2016년 동영상이 있다. 영상에서 카르파티는 “대규모의 데이터를 네트워크에 입력하면 문장에서 단어들이 서로 이어지는 패턴을 파악할 수 있다. 결국에는 사람들이 서로 대화하는 것처럼 컴퓨터와 대화하는 데 사용할 수 있을 것”이라고 말했다.
2017년 구글 브레인 팀이 한발 앞서 ‘트랜스포머’라는 모델로 이를 구체화했다. 참고로 트랜스포머는 챗GPT에서 T의 약자다. 단어와 단어, 문장과 문장 사이의 확률 관계들을 사전에 학습시켜 인간처럼 언어를 구사하게 한 것.
쉽게 설명하면, 컴퓨터가 A, B 다음 나올 철자가 C라는 것을 유추하게 만드는 개념이다. 번역할 때 맥락을 파악하는 일이기도 하다. 추리 소설로 비유할 수도 있다. 사람이 소설책을 끝까지 읽고 ‘확률적으로’ 범인을 예측하는 것처럼 인공지능이 비슷한 작업을 할 수 있다는 뜻이다. 원리는 간단하지만, 이를 실현하는 게 쉬운 일은 아니다. 범인을 정확하게 예측하려면 이해관계부터 정황, 각종 증거 등을 전부 이해해야 하기 때문이다.
이 같은 아이디어를 현실화하려면 엄청난 양의 연산 작업(학습)이 수반돼야 한다. 컴퓨터가 수행해야 할 작업이 어마어마해지는 셈이다.
연산 방식도 달라져야 한다. 번역을 예로 들면, 이전에는 문장을 단어들로 분리해 먼저 나오는 것부터 순서대로 연산 과정을 거쳐 대응 값을 출력했다. 맥락과 앞뒤 단어 사이의 관계성을 측정하는 트랜스포머 방식에서는 이를 동시에 할 수 있는 ‘병렬 방식’의 연산이 필요하다. 엔비디아의 GPU가 중요해졌다.
엔비디아는 2016년 오픈AI의 주문을 받아 12만9000달러(약 1억7000만 원)짜리 AI 용 서버를 만들었다. 서류 가방 크기로 8개의 그래픽 프로세서가 탑재된 이 슈퍼컴퓨터는 기존 컴퓨터에서 6일 이상 걸리는 작업을 2시간 만에 처리했다. 젠슨 황은 오픈AI 사무실에 슈퍼컴퓨터를 직접 전달하면서 슈퍼컴퓨터에 응원 메시지와 사인을 적었다.
“일론(머스크)과 오픈AI 팀을 위하여! 컴퓨팅과 인류의 미래를 위하여!”
오픈AI는 2018년 6월 첫 대형 언어 모델인 ‘GPT-1’을 선보였는데, 이 과정에서 돈이 곧 경쟁력이라는 사실을 깨우쳤다. 오픈AI는 챗GPT 첫 번째 버전인 GPT-1에 1억2000만 개의 변수(파라미터)를 학습시켰다. 다음 해 나온 GPT-2는 15억 개를 훈련했다. GPT-3(2020년 6월 출시)는 1750억 개, GPT-4(지난해 3월)는 1조7000억 개(추정)의 매개변수를 학습했다. 공부를 많이 할수록(학습시킨 변수가 많을수록) 챗GPT는 똑똑해졌지만, 그만큼 뛰어난 연산 능력이 필요했다. 비싼 엔비디아 GPU가 많이, 정말 많이 필요했다.
천문학적인 연구비를 조달하기 위해 비영리법인인 오픈AI는 2019년 영리법인을 자회사로 만드는 독특한 결정을 내리게 됐고, 결국 마이크로소프트(MS)에서 130억 달러(약 17조 원) 등 거금을 투자받았다.
▶오픈AI와 챗GPT 상업화 관련 내용은 신비월드 46화 참고. 진짜 위험한 가짜뉴스가 온다[김성모 기자의 신비월드] https://www.donga.com/news/Inter/article/all/20231208/122542180/1
되살아난 ‘그레이스 호퍼’
챗GPT가 굉장히 빠른 속도로 1억 명의 사용자를 모으면서 오픈AI에 투자한 MS에 먼저 관심이 쏠렸지만, 전문가들은 진정한 승자는 엔비디아라고 말한다. (연일 치솟는 엔비디아의 주가가 이를 증명해주는 듯하다)
엔비디아가 전 세계에서 가장 뜨거운 기업이 될 수 있었던 것은 결코 우연이 아니다. 준비된 회사였기 때문에 행운을 잡을 수 있었다. 챗GPT가 세상에 등장하기 전까지 AI는 기존 서비스의 효율성을 높이거나 수익성을 강화하는 방편으로만 존재했다. 인공지능 비즈니스 시장이 존재하지 않았다는 의미다. 그런데도 엔비디아는 불투명한 미래에 과감하게 배팅했다. 젠슨 황은 지난해 대만국립대 졸업식 연설에서 “이 새로운 분야(AI)를 발전시키기 위해 회사의 모든 부분을 전환했다”며 “지난 10년간 여기에 300억 달러(약 40조5000억 원) 이상을 투자했다”고 강조했다.
먼저, ‘쿠다’가 있었다. 앞서 언급한 것처럼 엔비디아는 인공지능이나 관련 알고리즘 개념이 생기기도 전에 개발자들과 관계를 구축할 수 있는 플랫폼을 만들었다. 엔비디아는 2006년 쿠다 출시 이후 4년 동안 개발자 10만 명을 모으는 데 그쳤지만, 쿠다에 대한 지원을 줄이지 않았다. 그 결과, 2016년 100만 명의 개발자가 쿠다에 모였다. 현재는 400만 명의 개발자가 쿠다를 사용하고 있다.
2020년에는 이스라엘의 작은 반도체 회사 멜라녹스를 70억 달러(약 9조4000억 원)에 인수해 업계를 놀라게 했다. 컴퓨터 네트워킹 공급업체인 멜라녹스는 대규모 데이터를 빠르고 원활하게 이동시키는 기술력을 가지고 있었는데, 이때만 해도 기존 기술(이더넷)로 충분해 비싸게 샀다는 말이 많았다. 시간이 지나고 나서야 멜라녹스의 기술력이 빛을 뽐냈다. AI 연구개발로 여러 CPU와 수십 개가 넘는 GPU 등이 결합하면서 칩 간의 원활한 데이터 이동이 중요해졌다. (인텔도 멜라녹스를 사려 했는데 엔비디아에 뺏겼다)
2022년, 엔비디아는 완전히 새로운 칩을 발표했다. 데이터센터 전용으로 쓸 수 있는 ‘그레이스 CPU’다. 엔비디아는 그동안 슈퍼컴퓨터를 만들 때 AMD나 인텔의 CPU를 라이선스 비용을 내고 구매해 넣어왔다. 그러다가 직접 CPU까지 개발했다.
같은 해 9월, GPU에서도 변화가 있었다. 엔비디아 GPU 시리즈는 게임용 그래픽카드든 데이터센터용이든 동일한 설계방식(아키텍처)을 사용했는데, 이를 분리했다. 데이터센터 전용으로 설계한 GPU를 내놓은 것. 이 칩이 호퍼 GPU, ‘H100’이다. 제품들의 이름은 컴퓨터 프로그래밍 기술 발전을 주도한 여성 과학자 ‘그레이스 호퍼(1906~1992)’에서 가져왔다.
MS + 애플 = 엔비디아
엔비디아는 지금까지 준비한 모든 것을 한 번에 이용할 수 있는 클라우드 서비스(DGX)를 지난해 선보였다. 호퍼 GPU와 그레이스 CPU, 칩 간의 뛰어난 데이터 네트워크 능력, 소프트웨어 개발 플랫폼 쿠다 등 AI 개발 전반에 걸쳐 필요한 기술들을 총망라했다. DGX 월 구독료만 내면 비싼 GPU를 사지 않고도 엔비디아의 최신 GPU와 기술들을 이용할 수 있다. H100 GPU 8개를 탑재한 DGX의 월 구독료는 서버당 3만7000달러(약 5000만 원) 수준이다. H100 GPU의 가격은 1대당 3만 달러(약 4000만 원)로 알려져 있다.
AI 기업이 서비스 개발을 하려면 (엔비디아 GPU를 많이 사서) 데이터센터를 직접 조성하거나, (엔비디아 GPU를 많이 구매해놓은) MS 같은 클라우드 업체에 요금을 내고 데이터센터를 빌려 써야 한다. 엔비디아는 MS, 구글, 오라클 등 클라우드 회사들과 파트너십을 맺었다. AI 회사들은 MS 등을 통해서 엔비디아의 DGX 소프트웨어를 이용할 수 있다.
엔비디아는 자사 클라우드를 이용하면 AI 개발에 필요한 모든 것을 한 번에, 저렴하게 이용할 수 있다고 홍보하고 있다. 젠슨 황은 비용 이야기가 나올 때마다 “우리는 고객의 비용을 줄여주는 회사”라고 강조했다. 클라우드 업체를 이용해도 엔비디아 GPU를 사용하는 것이니, 업체에 이용료를 내지 말고 엔비디아 클라우드를 곧바로 쓰라는 의미로 보인다.
그동안 개발자들은 엔비디아를 마이크로소프트와 유사한 측면이 있다고 봤다. 엔비디아가 표면적으로는 반도체나 데이터센터 장비를 생산해왔지만, MS처럼 운영 체제나 프로그래밍 환경 등도 조성해왔기 때문이다.
애플과 비슷한 면도 있다. 엔비디아 플랫폼은 애플의 모바일 운영 체제 iOS(앱스토어)처럼 폐쇄적이다. 쿠다의 AI 개발 프레임워크나 도구, 라이브러리가 엔비디아 GPU에서만 작동한다. 쿠다를 사용하는 한, 엔비디아 칩을 써야만 한다.
애플이 아이폰을 판매하고 이후 구독 등 서비스로 이익을 거둔 점도 유사하다. 엔비디아는 현재 클라우드 서비스를 판매 중이다. 젠슨 황은 최근 여러 행사에서 “우리는 아이폰이 등장한 순간과 같은 혁명을 AI 분야에서 맞이하고 있다”고 말했다.
선택받은 ‘칩’
엔비디아는 지난해 4분기 매출 29조5000억 원, 순이익 16조4000억 원의 실적을 기록했다. 순이익률이 55.6%에 달했다. 지난해 분기 마진율(매출총이익률)이 70%가 넘게 나온 적도 있었다. (쿠다가 등장하기 전에는 마진율이 20%대였음)
엔비디아가 AI 관련 시장에서 독점적 영역을 구축하고 놀랄 만큼 높은 이익을 거두자 빅테크들도 대응에 나서기 시작했다. 구글은 AI 연구개발에서 엔비디아 GPU를 대신할 수 있는 자체 칩(TPU)을 개발해 일부 사용하기 시작했다.
구글, 인텔, 퀄컴 등은 엔비디아 생태계에 맞서겠다며 손까지 잡았다. 로이터통신에 따르면 구글과 인텔, 퀄컴 등은 ‘UXL 재단’이라는 기술 컨소시엄을 구성해 ‘원API’라는 오픈소스 프로젝트를 추진하고 있다. 해당 프로젝트는 어떤 반도체 칩이나 하드웨어에 상관없이 모든 컴퓨터에서 작동하는 소프트웨어를 구축하는 것을 목표로 하고 있다. 반도체 분야에서 iOS와 안드로이드 싸움을 보는 듯한 느낌이다.
엔비디아를 대체할 수 있는 기업이 나올 수 있을까. 단기간에는 쉽지 않아 보인다. AMD나 구글이 엔비디아 못지않은 GPU를 ‘짠’하고 설계했다고 치자. 여기서 그쳐선 안 된다. 엔비디아가 멜라녹스를 인수하며 강화한 고속 커뮤니케이션 네트워크(NVLink)까지 갖춰야 한다. (멜라녹스만 한 회사가 아직 시장에 없다고 알려짐) 엔비디아의 DGX처럼 서버를 구축하려면 하드웨어 조립업체도 찾아야 한다.
더 큰 장벽이 있다. 쿠다 만큼 우수한 소프트웨어 플랫폼을 구축해야 한다. 쿠다 개발에는 수천 명의 전문가와 수조 원이 투입됐다. 무엇보다 쿠다에 대응하는 플랫폼을 내놓더라도 개발자들을 설득해야 한다. 개발자 400만 명의 ‘네트워크 효과’가 얼마나 강력한지 알 수 없지만, 카카오톡 대신 다른 SNS를 쓰게 만드는 것만큼 어려워 보인다.
아, 경영진도 설득해야 한다. “시장에서 증명된 엔비디아를 두고 왜 다른 회사 제품을 구매해?”라는 답변이 돌아올 수 있다. 브랜드 파워가 이렇게 무섭다.
그런데, 빅테크 기업들이 대응책을 마련하는 동안 엔비디아는 가만히 있을까. 엔비디아는 6개월마다 신제품을 내놓는 괴물 같은 회사다.
댓글 0