본문으로 건너뛰기
목록으로 돌아가기
자연어 처리 (NLP)

컨텍스트 윈도우 (Context Window)

AI 모델이 한 번에 읽고 처리할 수 있는 입력 토큰의 최대 범위

#컨텍스트 윈도우#토큰#LLM

컨텍스트 윈도우란?

컨텍스트 윈도우(Context Window)는 AI 모델이 한 번의 요청에서 동시에 읽고 기억할 수 있는 토큰의 최대 길이를 뜻합니다.

쉽게 말하면, 모델의 "작업 메모리" 크기입니다. 이 범위를 넘기면 앞부분 정보가 잘리거나, 답변 품질이 떨어질 수 있습니다.

어떻게 작동하나요?

모델은 입력 프롬프트, 첨부 문서, 이전 대화 이력을 모두 토큰으로 계산해 처리합니다. 이 합계가 컨텍스트 한도를 넘으면 다음과 같은 현상이 생깁니다.

  • 오래된 대화 맥락이 누락됨
  • 긴 문서의 앞부분 정보 손실
  • 지시사항 충돌 시 우선순위 혼선

그래서 긴 작업에서는 요약-압축, 문서 분할, 핵심 정보 재주입 같은 전략이 중요합니다.

왜 중요한가요?

컨텍스트 윈도우는 단순 스펙이 아니라 실사용 품질과 비용을 동시에 좌우하는 핵심 제약입니다. 문서 분석, 코드 리뷰, 장문 대화 같은 업무에서는 특히 모델 선택 기준에 큰 영향을 줍니다.

관련 용어