본문으로 건너뛰기
목록으로 돌아가기
AI 인프라/모델 최적화

robots.txt

웹사이트 루트에 위치하는 파일로, 검색 엔진과 AI 크롤러에게 수집 허용·차단 범위를 지정한다

#robots.txt#로봇 배제 표준#AI 크롤러 설정#GPTBot#ClaudeBot#PerplexityBot#크롤러 허용

robots.txt란?

robots.txt는 웹사이트 루트 디렉토리에 위치하는 텍스트 파일로, 검색 엔진 봇과 AI 크롤러에게 어느 페이지를 수집할 수 있고 어느 페이지는 접근하지 말아야 하는지를 지정한다.

AI 크롤러와의 관계

ChatGPT, Claude, Perplexity 등 AI 서비스는 각자의 크롤러를 운용한다. robots.txt에서 이 크롤러들을 차단하면 해당 AI의 인덱싱과 학습 데이터에서 제외되어 브랜드 언급 가능성이 직접적으로 낮아진다.

AI 크롤러 User-agent 식별자
ChatGPT GPTBot
Claude (Anthropic) ClaudeBot
Perplexity PerplexityBot
Google AI Google-Extended

AIVS에서의 역할

trensee AIVS는 AI Infra 필라에서 GPTBot, ClaudeBot, PerplexityBot 각각의 허용 여부를 독립적으로 평가한다(각 3점, 최대 9점). 세 크롤러를 모두 허용해야 만점이다.

권장 설정 예시

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Google-Extended
Allow: /

관련 용어

관련 용어