본문으로 건너뛰기
목록으로 돌아가기
자연어 처리 (NLP)

RLAIF (AI 피드백 강화학습)

사람 대신 AI 모델의 선호 평가를 활용해 정렬 품질을 높이는 강화학습 방식

#RLAIF#Reinforcement Learning from AI Feedback#AI 피드백 강화학습#선호 최적화

RLAIF란?

RLAIF는 Reinforcement Learning from AI Feedback의 약자로, 인간 평가자 대신 다른 AI가 선호 신호를 생성해 모델을 정렬하는 방식입니다.

RLHF와 무엇이 다른가요?

RLHF는 인간 비교 데이터를 핵심으로 사용하고, RLAIF는 AI가 만든 선호 라벨을 대규모로 활용합니다. 비용과 확장성에서 장점이 큽니다.

주의할 점

AI가 만든 피드백에도 편향이 누적될 수 있으므로, 헌법 규칙·감사 샘플·안전 평가를 함께 설계해야 합니다.

관련 용어

관련 용어