본문으로 건너뛰기
목록으로 돌아가기
AI 인프라/모델 최적화

경사하강법 (Gradient Descent)

손실 함수를 최소화하기 위해 기울기 반대 방향으로 파라미터를 반복 업데이트하는 최적화 방법

#경사하강법#Gradient Descent#최적화 알고리즘#파라미터 업데이트

경사하강법이란?

경사하강법은 모델의 오차를 줄이기 위해 파라미터를 조금씩 조정하는 최적화 방법입니다.
핵심은 기울기가 가리키는 증가 방향의 반대로 이동해 손실을 낮추는 것입니다.

어떤 방식이 있나요?

전체 데이터로 한 번에 계산하는 배치 방식, 샘플 단위로 갱신하는 확률적 방식, 미니배치 방식이 대표적입니다.
실무에서는 Adam, RMSprop 같은 변형 옵티마이저와 함께 쓰이는 경우가 많습니다.

왜 중요한가요?

경사하강법은 신경망 학습 속도와 안정성을 좌우합니다.
학습률 설정이 부적절하면 수렴이 느려지거나 발산할 수 있어 하이퍼파라미터 튜닝이 중요합니다.

관련 용어