본문으로 건너뛰기
AI 인프라/모델 최적화

GPU (Graphics Processing Unit)

AI 학습·추론의 기반 연산 장치로, 대규모 병렬 연산에 특화된 프로세서

#GPU#H100#A100#NVIDIA#AI 가속기

GPU란?

GPU(Graphics Processing Unit)는 본래 그래픽 처리를 위해 설계된 프로세서이지만, 지금은 AI 모델 학습과 추론의 핵심 연산 장치로 자리잡았습니다. 수천 개의 작은 연산 코어가 병렬로 동작해 행렬 곱셈 같은 대규모 선형대수 연산을 CPU 대비 수십~수백 배 빠르게 처리합니다.

NVIDIA 의 H100·A100, AMD 의 MI300, Google 의 TPU 가 대표적 AI 가속기이며, 최신 LLM 한 번 학습에 수천수만 개의 GPU 가 수주수개월간 동원됩니다.

어떻게 AI 를 가속하나요?

AI 연산의 95% 이상은 행렬 곱셈(GEMM) 입니다. GPU 는 이 연산에 최적화된 Tensor Core 전용 유닛을 탑재해, 같은 전력·면적에서 압도적 처리량을 냅니다.

  • 학습(training): 수백 GB~수 TB 모델 파라미터를 GPU 메모리(HBM)에 올리고 역전파 연산 병렬 수행
  • 추론(inference): 사용자 요청 배치를 묶어 GPU 한 장에서 동시에 처리 (batching·throughput 최적화)
  • 분산 학습: NVLink·InfiniBand 같은 초고속 인터커넥트로 수백~수천 GPU를 하나의 거대 클러스터처럼 운용

H100 1장 기준 FP16 약 1 PFLOPS, HBM3 80GB·대역폭 3TB/s 수준이며, 최신 B200·MI350 은 이를 2~3배 확장합니다.

왜 중요한가요?

GPU 공급은 AI 산업의 병목이자 전략 자산입니다. 대형 LLM 학습은 수천 GPU·수천만 달러 예산을 전제로 하며, GPU 수급·전력·냉각 인프라가 확보되지 않으면 프론티어 모델 개발 자체가 불가능합니다. 2023~2025 년 NVIDIA 시가총액이 전 세계 기업 1위권에 오른 배경에는 이 수급 독점이 있습니다. 추론 단계에서도 응답 지연·비용·에너지 효율이 GPU 세대에 좌우되므로, 제품 가격·SLA·수익성의 핵심 변수입니다.

관련 용어