CES 2024의 히든챔피언 엔비디아 주가 급등의 이유

그래픽 처리 장치(GPU)로 유명한 엔비디아는 2023년 AI 인프라 구축의 물결을 타며 끝 없는 주가 상승을 보여주고 있습니다. 이러한 상승세는 주로 고급 AI 애플리케이션, 특히 생성 AI 및 OpenAI의 ChatGPT 4, Google의 PaLM 2와 같은 대규모 언어 모델(LLM)을 지원하는 데 있어 중요한 역할을 하기 때문입니다.

핵심 요약(TL;DR) — CES 2024에서 시작된 엔비디아의 AI 인프라 지배력은 2024년 내내 폭발적으로 확장됐다. 2024년 6월 시가총액 3조달러를 돌파해 애플·마이크로소프트와 함께 글로벌 시총 1~2위를 다투었고, 같은 해 10월에는 한때 세계 시가총액 1위(약 3.5조달러)에 올랐다. 2024년 3월 GTC에서 차세대 Blackwell(B100/B200/GB200 NVL72) 아키텍처를 발표했고, FY2025(2024.2~2025.1) 매출은 약 1,305억달러(전년 대비 +114%)로 추정된다. 데이터센터 매출은 FY2024 4분기 184억달러에서 FY2025 4분기 약 356억달러로 증가했다. 다만 2025년 1월 DeepSeek R1 충격으로 하루 만에 약 17% 급락(시총 약 6,000억달러 증발)하며 AI 인프라 투자 효율 논쟁이 본격화됐다.

Key Facts — 엔비디아 핵심 지표 (CES 2024 → 2025)

  • FY2024 매출(2023.2~2024.1): 약 609억달러 (+126% YoY)
  • FY2024 데이터센터 매출: 약 475억달러 (전체의 78%)
  • FY2025 매출(2024.2~2025.1): 약 1,305억달러 (+114% YoY)
  • FY2025 4분기 데이터센터 매출: 약 356억달러
  • AI/머신러닝 GPU 시장점유율: 약 80~95% (모델별 추정)
  • 시가총액: 2024년 6월 $3T 첫 돌파 → 2024년 10월 한때 세계 1위(약 $3.5T)
  • 2024년 주요 발표 칩: B100/B200/GB200 NVL72 (Blackwell, 2024년 3월 GTC)
  • CES 2025 발표: RTX 5090/5080(Blackwell 게이밍), Project DIGITS(데스크톱형 AI 슈퍼컴, $3,000)
  • DeepSeek R1 충격: 2025년 1월 27일 하루에 약 −17%, 시총 약 6,000억달러 증발

엔비디아: AI 혁명과 그 너머

2024년 1월 CES 2024에서는 인공지능(AI)이 핵심 화두로 떠올랐다. 대규모 언어 모델(LLM)로 대표되는 인공지능의 대표 하드웨어 기업은 단연 엔비디아(NVIDIA)다. 2024년 한 해 동안 엔비디아의 위상은 “AI 칩 1등 기업”에서 “글로벌 시가총액 1~2위 기업”으로 한 단계 더 도약했다.

그래픽 처리 장치(GPU)로 시작한 엔비디아는 2023년부터 AI 인프라 구축의 물결을 타며 끝없는 주가 상승을 보여줬고, 2024년에는 그 추세가 더욱 가팔라졌다. 이러한 상승세의 핵심은 고급 AI 애플리케이션, 특히 생성 AI 및 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini 같은 대규모 언어 모델(LLM) 학습·추론 인프라의 기반이 되었기 때문이다.

엔비디아 주가 주봉
엔비디아 주가 주봉 (2017~2024년 초)

AI 및 데이터센터 붐

엔비디아 주가 상승의 주요 동력은 AI 칩 판매에 대한 끝없는 수요, 특히 데이터센터 부문에서의 성장이다. 엔비디아의 데이터센터 매출은 FY2023 4분기 36억달러에서 FY2024 4분기 184억달러로 약 5배 증가했고, FY2025 4분기에는 약 356억달러에 달했다. 마이크로소프트·구글·메타·아마존·오라클 등 미국 대형 클라우드 4사가 발표한 2024년 자본지출(CapEx)은 합산 약 2,500억달러로, 이 중 상당 부분이 엔비디아 GPU 매입에 흘러들어갔다.

엔비디아 AI 칩

생성 AI와 GPU 독점

생성 AI 혁명은 엔비디아에게 엄청난 기회를 제공했다. ChatGPT·Claude·Gemini 같은 모델을 훈련시키는 데 사용되는 엔비디아의 A100·H100·H200 GPU는 엔비디아를 AI 인프라 시장의 사실상 표준으로 자리매김하게 했다. 엔비디아는 데이터센터용 AI 가속기 시장의 약 80~95%를 차지하고 있다(추정치는 자료마다 다름). 2024년 3월 GTC에서 공개된 차세대 Blackwell 아키텍처(B100/B200/GB200 NVL72)는 H100 대비 학습 성능 약 4배, 추론 성능 약 30배 향상을 표방했고, 2024년 4분기부터 본격 양산·출하가 시작됐다.

엔비디아 GPU의 역할

고성능 컴퓨팅 요구사항

생성형 AI는 매우 복잡한 계산을 요구한다. 특히 심층 신경망(Deep Neural Networks)은 엄청난 양의 데이터를 처리해야 하며, 이를 위해서는 고성능 컴퓨팅 파워가 필수적이다. 엔비디아의 GPU는 이러한 요구를 충족시키는 데 핵심적인 역할을 한다.

  1. 병렬 처리 능력 — GPU는 대량의 데이터와 복잡한 연산을 동시에 처리할 수 있는 강력한 병렬 처리 능력을 갖추고 있다. 이는 생성형 AI 모델이 대규모 데이터셋을 빠르게 학습하는 데 필수적이다.
  2. CUDA 생태계의 락인(Lock-in) — 엔비디아는 GPU 하드웨어뿐만 아니라 AI 연구·개발용 소프트웨어 스택(CUDA, cuDNN, TensorRT, NCCL, Triton)을 17년 넘게 구축해왔다. CUDA에 최적화된 PyTorch·TensorFlow 라이브러리, AI 연구 코드의 압도적 비중이 모두 CUDA를 가정하고 작성돼 있다. 이 소프트웨어 락인이 경쟁사(AMD·인텔)가 따라잡기 어려운 진짜 해자(moat)다.
  3. NVLink·NVSwitch 인터커넥트 — 수천 개의 GPU를 하나의 클러스터로 묶는 고대역폭 네트워크 기술. GB200 NVL72는 72개의 B200 GPU를 하나의 시스템처럼 동작시키는 랙 단위 솔루션이다.

슈퍼컴퓨터와 XR의 부상

엔비디아의 칩은 AI뿐만 아니라 슈퍼컴퓨터에도 필수적이다. 2024년 11월 Top500 슈퍼컴퓨터 순위에서 상위 10개 중 7~8개가 엔비디아 GPU 기반이었다. 메타·테슬라·xAI 같은 빅테크는 자체 슈퍼컴퓨터를 잇따라 구축했고, 일론 머스크의 xAI는 2024년 7월 멤피스에 H100 10만장 규모의 “Colossus” 클러스터를 가동했다.

또한 확장 현실(XR) 및 메타버스 분야에서도 중요한 역할을 하고 있다. 3D 모델링 솔루션과 XR 콘텐츠를 효율적으로 스트리밍하는 Omniverse를 통해 엔비디아는 산업용 디지털 트윈·로봇 시뮬레이션 영역으로 확장하고 있다. 2024년 GTC에서는 휴머노이드 로봇용 파운데이션 모델 Project GR00T도 공개했다.

앞으로의 도전

낙관적인 전망에도 불구하고 엔비디아는 다음과 같은 도전에 직면해 있다.

  • 미·중 반도체 수출 규제 강화 — 미국 상무부는 2022·2023·2024년 단계적으로 첨단 AI 칩의 중국 수출을 제한했고, 엔비디아는 중국 전용 다운그레이드 버전(H800·A800 → H20·L20)을 만들어 대응했지만, 2024년 12월 H20 규제 추가 검토에 들어가며 불확실성이 커졌다.
  • 경쟁사들의 추격 — AMD의 MI300X·MI325X·MI350이 일부 추론 워크로드에서 H100을 능가한다는 벤치마크가 보고됐고, Microsoft Azure·Meta가 자체 칩(Maia 100, MTIA v2)을 양산하기 시작했다. Google TPU v5p, AWS Trainium2도 본격 배치됐다.
  • DeepSeek 충격(2025년 1월) — 중국 헤지펀드 출신 스타트업 DeepSeek가 GPU 효율을 극단적으로 끌어올린 DeepSeek-V3·R1 모델을 공개하며 “비싼 H100 클러스터 없이도 GPT-4급 모델을 만들 수 있다”는 인식이 퍼졌다. 2025년 1월 27일 엔비디아는 하루에 약 17% 급락하며 시총 약 6,000억달러가 증발했다. 이는 단일 종목 일일 시총 감소 사상 최대 규모였다.
  • AI CapEx 지속가능성 논쟁 — 골드만삭스·세쿼이아 등 일부 IB·VC는 빅테크의 AI 인프라 투자 회수가 어려울 수 있다고 경고했다(“AI ROI 갭”). 다만 빅테크 4사는 2025년에도 CapEx를 추가 확대한다고 발표하며 단기적 우려는 진정됐다.
엔비디아 독점

독점에 대한 우려

  1. 시장 지배력: AI 학습용 GPU 시장에서 엔비디아의 점유율(약 80~95%)은 사실상 독점에 가깝다. 미국 법무부와 EU 집행위원회는 2024년부터 엔비디아의 독점적 관행(번들 판매, 우선 공급 조건 등)에 대한 조사를 시작했다.
  2. 가격 문제: H100 1장의 시장가는 한때 4만~6만달러까지 치솟았다. GB200 NVL72 한 랙은 약 300만달러 수준이다. 이는 스타트업·연구기관의 진입장벽이 됐고, 클라우드 임대 단가(시간당 H100 약 $2~$5)에도 영향을 미쳤다.
  3. 대안 기술 개발: Google TPU, AWS Trainium/Inferentia, MS Maia, Meta MTIA 같은 자체 칩과 AMD MI 시리즈, Cerebras·Groq·SambaNova 같은 전용 칩 스타트업이 빠르게 등장하고 있다.

경제적 함의

엔비디아의 주가 상승은 단순한 한 회사의 성공 이야기가 아니라 2020년대 후반 글로벌 기술 자본의 구조적 재배치를 상징한다. AI 데이터센터에 투입되는 자본(연 수천억달러)이 메모리(SK하이닉스·삼성전자), 패키징(TSMC, CoWoS), 네트워킹(Broadcom, Arista), 전력·냉각(Vertiv) 등으로 파급되며 ‘AI 가치사슬’ 전체가 동반 상승하는 흐름이 만들어졌다. 한편 한국 증시에서는 SK하이닉스(HBM 공급)와 한미반도체(TC 본더)가 엔비디아 수혜주로 부각됐다.

자주 묻는 질문

2024년 6월 18일 처음으로 3조달러를 돌파했고, 2024년 10월에는 한때 세계 시가총액 1위(약 3.5조달러)에 올랐습니다. 2025년 1월 DeepSeek 충격으로 일시 조정됐지만 여전히 3조달러 안팎에서 거래되고 있습니다.

(1) 두 개의 다이를 NVLink-C2C로 묶은 듀얼 다이 구조, (2) FP4·FP6 같은 저정밀 연산 지원으로 추론 성능 약 30배 향상, (3) 5세대 NVLink로 GPU 간 대역폭 2배, (4) GB200 NVL72에서 72장을 하나의 거대한 GPU처럼 운용하는 랙 단위 솔루션 — 이 네 가지가 핵심입니다.

단기적으로는 “더 적은 GPU로도 강력한 모델을 만들 수 있다”는 인식이 확산되며 단기 수요 우려를 키웠습니다. 다만 (1) DeepSeek도 H800/H100 수천 장 규모를 사용했고, (2) 추론 수요는 오히려 모델이 저렴해질수록 폭발적으로 증가하는 경향(Jevons 역설)이 있어, 장기 GPU 수요가 줄어든다고 단정하긴 어렵다는 반론이 우세합니다. 엔비디아 주가는 한 달 안에 상당 부분을 회복했습니다.

하드웨어 성능도 중요하지만, 진짜 해자는 17년 이상 누적된 CUDA 소프트웨어 생태계입니다. PyTorch·TensorFlow의 거의 모든 AI 연구 코드가 CUDA를 가정해 작성돼 있고, 최적화된 라이브러리(cuDNN, TensorRT, NCCL)와 인터커넥트(NVLink/NVSwitch)까지 합치면 경쟁사가 단순히 더 빠른 칩을 만든다고 따라잡기 어려운 구조입니다.

2025년 1월 CES에서 공개한 약 3,000달러대 데스크톱형 개인용 AI 슈퍼컴퓨터입니다. GB10 슈퍼칩(Grace CPU + Blackwell GPU)을 탑재해 최대 2,000억 파라미터 모델을 로컬에서 실행 가능합니다. 개인 개발자·연구자를 겨냥한 제품으로, 엔비디아의 시장 확장 전략을 보여줍니다.


총평

엔비디아 주가의 상승은 AI에서의 지배적 위치, 슈퍼컴퓨터에 대한 높은 수요, CUDA 생태계의 락인 효과, XR·로봇·디지털 트윈 영역으로의 확장에서 비롯됐다. DeepSeek 충격, 미·중 수출 규제, AMD/구글 TPU의 추격 등 도전 과제가 있지만, 엔비디아가 2020년대 후반 글로벌 기술 산업의 중심에 있다는 사실은 부인하기 어렵다.