AI 에이전트 프로젝트 킥오프 체크리스트: 실패 없이 시작하는 7단계
AI 에이전트 도입 프로젝트에서 반복되는 실패 패턴을 분석하고, 팀이 첫 주부터 올바른 방향을 잡을 수 있는 7단계 실전 체크리스트를 제공합니다.
AI 보조 작성 · 편집팀 검수이 블로그 콘텐츠는 AI 보조 도구를 활용해 초안/구조화를 수행할 수 있으며, Trensee 편집팀 검수 후 발행됩니다.
요약: AI 에이전트 프로젝트는 기술보다 설계에서 실패한다. "무엇을 자동화할지"를 먼저 정의하고, Human-in-the-loop 게이트를 설계한 뒤, 가장 단순한 에이전트부터 파일럿하는 7단계 루틴을 따르면 첫 달 내 실질적인 운영 안착이 가능하다는 패턴이 여러 실무 사례에서 관측된다.
시작하며: AI 에이전트 프로젝트, 왜 자꾸 3개월에서 멈추는가?
"ChatGPT로 업무 자동화 해봤는데, 결국 팀원들이 안 쓰더라고요."
AI 에이전트 도입을 시도한 팀이라면 한 번쯤 들어봤을 말이다. 2025년 하반기부터 기업들의 AI 에이전트 도입 시도가 폭발적으로 늘었지만, 실제 운영까지 안착시킨 팀은 여전히 소수다. 복수의 연구기관 보고에 따르면, 기업 AI 프로젝트의 60~70%가 POC(개념 검증) 단계를 넘기지 못한다는 패턴이 반복적으로 관측된다.
문제는 기술력이 아니다. LLM API의 품질은 이미 충분히 성숙했고, 오케스트레이션 프레임워크도 다양하게 공개되어 있다. 실패의 핵심 원인은 대부분 프로젝트 설계 단계의 구조적 결함에서 비롯된다.
이 가이드는 반복적으로 관측되는 실패 패턴 3가지를 먼저 짚고, 첫 주부터 올바른 방향을 잡을 수 있는 7단계 킥오프 체크리스트를 제공한다.
왜 AI 에이전트 프로젝트가 실패하는가: 반복되는 실패 패턴 3가지
실패 패턴 1 — "목표 없는 자동화": 무엇을 에이전트에 시킬지 불명확
가장 흔한 실패 유형이다. "AI 에이전트 하나 만들어보자"는 방향으로 시작해 개발을 마쳤지만, 막상 실무에 적용하려니 어떤 업무에 써야 할지 모호한 상태가 된다. 에이전트가 처리할 업무의 반복성·규칙성·측정 가능성을 사전에 검증하지 않으면 프로젝트는 표류한다.
실패 패턴 2 — "Human-in-the-loop 부재": 검증 없이 자율 실행
Anthropic의 에이전트 개발 가이드라인에 따르면, 자율 에이전트를 Human-in-the-loop 설계 없이 바로 배포한 팀에서 롤백 비율이 유의미하게 높다는 패턴이 관측된다. 에이전트가 잘못된 판단을 했을 때 이를 감지하고 개입할 수 있는 게이트가 없으면, 오류가 누적되어 신뢰 자체가 무너진다.
실패 패턴 3 — "도구 먼저, 문제 나중": 기술 도입 후 사용처 탐색
"LangChain 써보자", "CrewAI 도입하자"는 방식으로 기술을 먼저 선택하고 이후에 활용 방법을 찾는 역순 접근이다. 도구 자체를 배우는 데 에너지를 소진하고, 정작 실무 문제와의 연결이 약해 지속 사용으로 이어지지 않는다.
킥오프 전 반드시 확인할 5가지 전제 조건
본격적인 7단계 체크리스트를 시작하기 전에, 다음 5가지를 팀 전체가 합의해야 한다.
| 번호 | 확인 항목 | 합의 안 됐을 때 리스크 |
|---|---|---|
| 1 | 이 프로젝트의 **명확한 스폰서(의사결정권자)**가 있는가? | 방향 전환 시 결정이 늦어져 표류 |
| 2 | 에이전트가 처리할 데이터에 접근 권한이 확보됐는가? | 개발 완료 후 데이터 접근 불가로 재시작 |
| 3 | 실패해도 조직적 페널티가 없는 파일럿 환경인가? | 첫 실패에 프로젝트 폐기 |
| 4 | 기술 담당자와 업무 담당자가 동시에 참여하는가? | 기술-현장 괴리로 현장 미채택 |
| 5 | 성공 기준을 숫자로 표현할 수 있는가? | 막연한 "잘 됐다/안 됐다" 평가로 학습 불가 |
1단계: 에이전트화할 업무 선별 (Day 1~2)
킥오프 첫날 가장 중요한 작업은 후보 업무 스코어링이다. 모든 업무가 에이전트화에 적합하지 않다. 3가지 기준으로 후보 업무를 점수화한다.
업무 선별 3기준
기준 1: 반복성 (0~5점) 동일하거나 유사한 작업이 주 1회 이상 발생하는가? 월 1회 이하 발생하는 업무는 에이전트화 효율이 낮다.
기준 2: 규칙성 (0~5점) 처리 절차가 문서화되거나 패턴화될 수 있는가? "상황에 따라 다르다"는 업무는 에이전트가 판단하기 어렵다.
기준 3: 측정 가능성 (0~5점) 결과의 품질을 객관적으로 측정할 수 있는가? "좋은 글"처럼 주관적 판단이 필요한 결과물은 평가 기준 설정이 어렵다.
산출물: 후보 업무 점수표 (예시)
| 업무 | 반복성 | 규칙성 | 측정가능성 | 합계 | 우선순위 |
|---|---|---|---|---|---|
| 주간 경쟁사 뉴스 요약 | 5 | 4 | 4 | 13 | 1순위 ✅ |
| 고객 문의 초안 분류 | 5 | 5 | 3 | 13 | 1순위 ✅ |
| 월간 보고서 초안 작성 | 3 | 3 | 4 | 10 | 2순위 |
| 제안서 작성 지원 | 2 | 2 | 2 | 6 | 보류 ❌ |
권장: 합계 10점 이상 업무부터 파일럿 시작. 최초 파일럿은 1순위 업무 1개만 선택.
실무 팁
- 팀원 각자가 "지난 한 주 가장 반복적으로 한 작업"을 3개씩 적어 취합하면 후보 업무 리스트를 빠르게 만들 수 있다.
- 이 단계에서 에이전트 기술 스택을 논의하면 안 된다. 업무 선별이 먼저다.
2단계: 성공 기준 정의 (Day 3)
"에이전트가 성공했다"는 것을 어떻게 판단할 것인가? 이 질문에 답하지 못한 상태로 개발을 시작하면, 파일럿이 끝난 뒤 "잘 된 것 같기도 하고, 아닌 것 같기도 하다"는 모호한 평가로 끝난다.
KPI 문서 작성 원칙
핵심 지표 1개만 선택: "가장 중요한 하나"를 먼저 정한다.
- 잘못된 예: "정확도도 높이고, 속도도 빠르고, 사용자 만족도도 올리자"
- 좋은 예: "주간 뉴스 요약 작업 시간을 현재 3시간에서 1시간 이내로 단축"
보조 지표 2개로 맥락 보완:
- 보조 지표 1: 에이전트 출력 결과의 인간 수정 비율 (목표: 30% 이하)
- 보조 지표 2: 파일럿 기간 팀원 재사용률 (목표: 주 3회 이상 사용)
산출물: KPI 문서 템플릿
프로젝트명: [업무명] 에이전트 파일럿
측정 기간: [시작일] ~ [종료일]
핵심 지표:
- [지표명]: 현재 [수치] → 목표 [수치]
- 측정 방법: [어떻게 측정할 것인가]
- 측정 주기: [매일 / 주간]
보조 지표:
1. [지표명]: 목표 [수치]
2. [지표명]: 목표 [수치]
성공 판정 기준: 핵심 지표 달성 + 보조 지표 1개 이상 달성 시 "성공"
3단계: 최소 가능 에이전트(MVA) 설계 (Day 4~5)
MVP(최소 가능 제품)처럼, 에이전트도 **MVA(Minimum Viable Agent)**부터 시작한다. 첫 에이전트는 단 하나의 작업만 처리하는 가장 단순한 구조여야 한다.
MVA 설계 원칙
단일 입력 → 단일 출력: 여러 소스에서 데이터를 받아 복수의 결과를 내는 구조는 초기 파일럿에서 피한다. 무엇이 문제인지 진단하기 어렵기 때문이다.
도구(Tool) 최소화: 에이전트에 연결하는 외부 도구(웹 검색, 데이터베이스, API 등)는 필수적인 1~2개로 제한한다.
프롬프트 명시화: 에이전트의 역할, 처리할 작업, 출력 형식을 프롬프트에 명확히 명시한다.
산출물: 에이전트 플로우 다이어그램
[입력] → [에이전트 처리] → [출력]
예시: 주간 경쟁사 뉴스 요약 에이전트
입력: RSS 피드 URL 목록 (5개 이내)
처리: 최근 7일 기사 수집 → 핵심 내용 추출 → 요약 생성
출력: 마크다운 형식의 주간 요약 보고서
도구: 웹 검색 1개
모델: Claude 3.5 Sonnet (또는 GPT-4o)
이 단계에서 흔히 저지르는 실수
- "어차피 나중에 추가할 거니까 지금 다 넣자" → 복잡도 폭발, 디버깅 불가
- "더 좋은 모델 쓰면 알아서 잘 할 것이다" → 모델 성능으로 설계 결함을 덮을 수 없다
- 플로우 다이어그램 없이 바로 코딩 시작 → 팀원 간 에이전트 동작 이해 불일치
4단계: Human-in-the-loop 게이트 설정 (Day 6~7)
에이전트가 자율적으로 실행하는 모든 행동에는 책임이 따른다. 잘못된 이메일을 자동 발송하거나, 잘못된 데이터를 데이터베이스에 기록하거나, 부적절한 콘텐츠를 공개 채널에 게시하는 사고는 실제 현장에서 발생한 바 있다.
게이트 설정 원칙
가역적 행동 vs. 비가역적 행동을 구분한다:
- 가역적 행동 (자율 실행 허용): 초안 생성, 내부 문서 저장, 내부 슬랙 채널 전송
- 비가역적 행동 (인간 검토 필수): 외부 이메일 발송, 공개 게시, 결제·계약 처리, 데이터 삭제
확신도(Confidence) 임계값 설정: 에이전트가 판단 확신도를 출력할 수 있다면, 특정 수준 이하일 때 자동으로 인간 검토로 전환하는 로직을 추가한다.
산출물: 승인 게이트 목록 (예시)
| 에이전트 행동 | 분류 | 처리 방식 |
|---|---|---|
| 뉴스 요약 초안 생성 | 가역적 | 자율 실행 ✅ |
| 내부 노션 문서 업데이트 | 가역적 | 자율 실행 ✅ |
| 팀 슬랙 채널 요약 게시 | 가역적 | 자율 실행 (단, 채널 한정) ✅ |
| 고객 이메일 초안 → 발송 | 비가역적 | 담당자 검토 후 발송 ⚠️ |
| 외부 SNS 게시 | 비가역적 | 마케팅 팀장 승인 필수 🔒 |
| CRM 데이터 수정 | 비가역적 | 2인 확인 후 실행 🔒 |
5단계: 파일럿 실행 및 실패 수집 (Week 2)
MVA와 게이트 설계가 완료됐다면, 이제 실제 업무에 적용한다. 이 단계의 목표는 성공하는 것이 아니라 실패 케이스를 수집하는 것이다.
파일럿 실행 원칙
실제 업무 데이터로 실행한다: 합성 데이터나 테스트 데이터로 테스트한 에이전트가 실제 업무 데이터에서 전혀 다른 방식으로 실패하는 경우가 흔하다.
팀원이 직접 사용한다: 개발자가 아닌, 실제 해당 업무를 하는 팀원이 직접 에이전트를 사용해야 한다. 사용자 관점의 실패 패턴은 개발자 테스트로 발견되지 않는다.
실패를 기록한다: 에이전트가 잘못된 결과를 냈을 때, 즉시 삭제하지 말고 "어떤 입력에서 어떤 잘못된 출력이 나왔는가"를 기록한다.
산출물: 실패 유형 분류표 (Week 2 목표: 10건 이상 수집)
| 번호 | 입력 조건 | 에이전트 출력 | 예상 출력 | 실패 유형 |
|---|---|---|---|---|
| 1 | 영어 기사 포함 시 | 영어 그대로 출력 | 한국어 요약 | 언어 처리 미흡 |
| 2 | 기사 없는 날 | "기사를 찾을 수 없습니다" | 대체 콘텐츠 제공 | 엣지 케이스 처리 |
| 3 | 동일 기사 중복 | 동일 내용 2회 출력 | 중복 제거 | 중복 필터링 부재 |
| … | … | … | … | … |
6단계: 반복 개선 루틴 확립 (Week 3~4)
실패 케이스가 10건 이상 수집됐다면, 이를 분석해 에이전트를 개선하는 주간 루틴을 만든다.
주간 회고 아젠다 (30분)
- 지난 주 실패 케이스 검토 (10분): 수집된 실패 케이스를 유형별로 분류
- 개선 우선순위 결정 (5분): 가장 빈번하거나 영향이 큰 실패 유형 1~2개 선택
- 프롬프트 또는 플로우 수정 (10분): 선택된 실패 유형 해결을 위한 변경 적용
- 다음 주 실험 설계 (5분): 개선이 효과적인지 확인하기 위한 관찰 기준 설정
산출물: 개선 로그 (매주 업데이트)
날짜: 2026-03-16
변경 사항: 프롬프트에 "영어 기사는 반드시 한국어로 번역 후 요약" 조건 추가
기대 효과: 영어 기사 그대로 출력되는 실패 케이스 감소
실제 효과 (다음 주 확인): [측정 후 기입]
---
날짜: 2026-03-23
변경 사항: 기사가 0건일 때 "이번 주 주목할 만한 뉴스 없음" 메시지 추가
기대 효과: 빈 출력 실패 케이스 해결
실제 효과: 엣지 케이스 처리율 100% 달성 ✅
개선 루틴에서 피해야 할 함정
- 한 번에 여러 가지를 바꾸는 것: 무엇이 효과적인지 알 수 없다
- 실패 케이스 기록 없이 감으로 수정하는 것: 같은 실패가 반복된다
- 좋아진 것만 기록하는 것: 나빠진 지표도 반드시 기록해야 한다
7단계: 확장 판단 기준 설정 (Month 2 이후)
첫 에이전트가 안정적으로 운영된다면, 다른 업무로 확장을 고려할 시점이다. 하지만 무분별한 확장은 "에이전트 스프롤(sprawl)" — 관리되지 않는 에이전트가 늘어나는 현상 — 로 이어질 수 있다.
확장 트리거 기준
확장을 시도해도 좋은 신호:
- 핵심 KPI를 2주 연속 달성했다
- 팀원이 스스로 "이 업무도 에이전트로 해보면 어떨까?"를 제안하기 시작했다
- 첫 에이전트의 운영 유지에 주당 1시간 이내의 노력이 들어가고 있다
확장을 멈추고 현행 유지해야 하는 신호:
- 핵심 KPI 미달이 3주 이상 지속된다
- 팀원 중 에이전트 사용을 회피하는 사람이 늘고 있다
- 실패 케이스 수집 루틴이 유지되지 않고 있다
산출물: 확장 트리거 기준 문서 (예시)
확장 트리거 기준 — 주간 뉴스 요약 에이전트 v1.0
현행 유지 조건:
- 핵심 KPI 달성률: [목표치] 미달 시 확장 보류
- 팀원 주간 사용률: 80% 이상 유지 시에만 확장
확장 대상 후보 (우선순위순):
1. 경쟁사 제품 업데이트 모니터링 (스코어: 12점)
2. 고객 문의 초안 분류 (스코어: 11점)
3. 주간 팀 미팅 요약 (스코어: 9점)
다음 확장 검토 일정: [첫 에이전트 안정화 2주 후]
편집자의 시선: "가장 빠른 실패가 최선의 시작이다"
7단계 체크리스트를 처음 보면 "이게 다 필요한가?"라는 생각이 들 수 있다. 하지만 실제 현장의 실패 사례를 보면, 생략된 단계가 정확히 실패 지점이었다는 패턴이 반복된다.
특히 2단계(성공 기준 정의)와 4단계(Human-in-the-loop 게이트)는 개발자들이 "나중에 해도 되겠지"라며 미루는 경향이 있다. 하지만 이 두 단계 없이 5단계(파일럿 실행)에 돌입하면, 실패해도 무엇이 실패인지 알 수 없는 상태가 된다.
AI 에이전트 프로젝트에서 "가장 빠른 실패"란 실제 업무 환경에서 실패 케이스를 빠르게 수집하고, 이를 기반으로 개선 루틴을 만드는 것이다. 정교한 설계를 완성한 후 배포하는 방식보다, 단순한 MVA를 빠르게 실행해 실패 데이터를 쌓는 방식이 대부분의 사례에서 더 빠른 안착으로 이어진다는 것이 공통된 관찰이다.
실전 사례: 마케팅팀 콘텐츠 에이전트 도입 Before/After
팀 규모: 5인 마케팅팀 도입 업무: 주간 경쟁사 뉴스 모니터링 + 요약 보고서 작성 킥오프 기간: Day 1~7 (7단계 체크리스트 적용)
Before (에이전트 도입 전)
- 담당자 1명이 매주 월요일 오전 3시간 투입
- 5개 경쟁사 블로그·뉴스 수동 확인
- 요약 보고서 작성 및 팀 공유
- 총 소요 시간: 월 12시간 (주 3시간 × 4주)
After (에이전트 도입 4주 후)
- 에이전트가 매주 일요일 자정 자동 실행
- 월요일 오전 출근 시 초안 슬랙 도착
- 담당자 검토·수정 시간: 주 30분
- 총 소요 시간: 월 2시간 (주 30분 × 4주)
- 핵심 KPI 달성: 작업 시간 83% 단축
성공 요인 분석:
- Day 3에 "주 3시간 → 주 30분"이라는 명확한 KPI 설정
- Day 6~7에 "슬랙 게시는 자율, 팀장 공유는 담당자 확인 후" 게이트 설정
- Week 2에 수집한 실패 케이스(영어 기사 미번역, 중복 기사 포함)를 Week 3에 즉시 반영
핵심 실행 요약 테이블
| 단계 | 기간 | 핵심 산출물 | 완료 체크 |
|---|---|---|---|
| 1단계: 업무 선별 | Day 1~2 | 후보 업무 점수표 | ☐ |
| 2단계: 성공 기준 정의 | Day 3 | KPI 문서 | ☐ |
| 3단계: MVA 설계 | Day 4~5 | 에이전트 플로우 다이어그램 | ☐ |
| 4단계: Human-in-the-loop 게이트 | Day 6~7 | 승인 게이트 목록 | ☐ |
| 5단계: 파일럿 실행 | Week 2 | 실패 유형 분류표 (10건↑) | ☐ |
| 6단계: 반복 개선 루틴 | Week 3~4 | 개선 로그 (주간 업데이트) | ☐ |
| 7단계: 확장 판단 기준 | Month 2↑ | 확장 트리거 기준 문서 | ☐ |
자주 묻는 질문 (FAQ)
Q1. 어떤 에이전트 프레임워크(LangChain, CrewAI 등)를 선택해야 하나요?▾
이 체크리스트의 핵심 원칙 중 하나는 "도구 선택은 마지막"이다. 1~4단계를 완료한 이후, MVA 설계에 따라 필요한 도구를 선택하면 된다. 반복성이 높고 단일 작업 에이전트라면 LangChain 없이 API 직접 호출만으로 충분한 경우도 많다. 프레임워크의 학습 비용이 실제 업무 가치보다 크다면, 선택을 보류하거나 더 단순한 도구를 선택하는 것을 권장한다.
Q2. 팀에 개발자가 없어도 AI 에이전트 프로젝트를 시작할 수 있나요?▾
코딩 없이 에이전트를 구성할 수 있는 도구(Zapier AI, Make, n8n 등)가 증가하고 있어, 비개발자 팀도 MVA 수준의 에이전트를 만들 수 있다. 단, 1~4단계의 설계 작업은 기술 역량과 무관하게 팀 전체가 함께 해야 한다. 기술 도구 선택보다 업무 설계가 성공에 더 큰 영향을 미친다.
Q3. 에이전트 운영에 월 얼마 정도 비용이 드나요?▾
비용은 에이전트가 처리하는 작업 수와 사용 모델에 따라 크게 달라진다. 주간 뉴스 요약처럼 주 12회 실행하는 에이전트는 월 520달러 수준에서 운영 가능한 경우가 많다. 초기 파일럿에서는 GPT-4o mini나 Claude Haiku처럼 경량 모델부터 시작해 비용-성능 균형을 먼저 확인하는 것을 권장한다.
Q4. 5단계에서 실패 케이스를 10건 수집하는 데 얼마나 걸리나요?▾
업무 빈도에 따라 다르다. 주간 업무 에이전트라면 10건 수집에 2~3주가 걸릴 수 있다. 이 경우 파일럿 기간을 2주 이상으로 늘리는 것이 현실적이다. 반면 일간 업무 에이전트라면 1주 내에 충분히 수집할 수 있다. 중요한 것은 실패 케이스 수집을 "의도적"으로 설계하는 것이다. 성공만 기대하고 실행하면 실패를 놓치기 쉽다.
Q5. 에이전트가 잘못된 결과를 반복적으로 낸다면 중단해야 하나요?▾
3가지 기준으로 판단한다. (1) 실패 유형이 특정 조건에서만 발생한다면 개선 가능 → 계속. (2) 실패가 무작위적이고 패턴이 없다면 MVA 설계를 재검토. (3) 핵심 KPI 미달이 3주 이상 지속된다면 해당 업무가 에이전트화에 적합하지 않을 수 있다 → 1단계로 돌아가 다른 업무 후보를 선별한다.
Q6. Human-in-the-loop 게이트가 너무 많으면 자동화 효율이 떨어지지 않나요?▾
그렇다. 게이트가 너무 많으면 에이전트 도입의 효율 이점이 사라진다. 초기에는 더 많은 게이트를 두고, 에이전트의 출력 품질이 2~3주간 안정적으로 확인된 이후 게이트를 점진적으로 줄여나가는 방식이 권장된다. 특히 비가역적 행동에 대한 게이트는 충분한 신뢰가 쌓일 때까지 유지하는 것이 안전하다.
Q7. 팀원들이 에이전트 사용을 거부하거나 회피하면 어떻게 해야 하나요?▾
사용 회피의 가장 흔한 이유는 두 가지다. (1) 에이전트 출력이 오히려 더 많은 수정 작업을 만든다. (2) 에이전트 사용법이 기존 업무 플로우에서 벗어나 번거롭다. 전자라면 5~6단계의 개선 루틴으로 해결한다. 후자라면 에이전트의 입출력 인터페이스를 기존 업무 도구(슬랙, 노션 등)와 통합하는 방향을 검토한다.
Q8. 이미 진행 중인 AI 에이전트 프로젝트에도 이 체크리스트를 적용할 수 있나요?▾
가능하다. 현재 어느 단계에서 막혀 있는지 파악한 뒤, 해당 단계부터 체크리스트를 적용하면 된다. 가장 흔한 패턴은 5단계(파일럿 실행) 이후에 막혀 있는 경우다. 이때는 2단계(KPI 재정의)와 4단계(게이트 재설정)를 소급 적용하는 것이 출발점이 된다.
Q9. 에이전트 1개가 안정화된 이후 몇 개까지 확장해도 괜찮을까요?▾
팀원 1인당 관리 가능한 에이전트 수는 실무 경험상 2~3개로 보는 것이 현실적이다. 에이전트가 늘어날수록 개선 루틴 유지에 드는 노력도 선형적으로 증가한다. 에이전트 확장보다 기존 에이전트의 품질 향상에 투자하는 것이 더 나은 ROI를 가져오는 경우가 많다는 점을 참고할 만하다.
함께 읽으면 좋은 글
분석 근거
- 실무 기준: AI 에이전트 도입 실패 사례 분석 (커뮤니티 보고, 사례 연구 10건 이상) 및 성공 패턴 추출
- 평가 지표: 프로젝트 완주율, 첫 3개월 내 실제 사용 정착률, 재작업 발생 횟수
- 검증 원칙: 단건 성공 사례보다 반복 가능한 루틴이 확인된 패턴 중심
핵심 주장과 근거
주장:기업 AI 프로젝트의 60~70%가 POC 단계를 넘기지 못한다는 패턴이 복수 연구기관 보고에서 반복 관측됨
근거 출처:McKinsey: State of AI 2026주장:Human-in-the-loop 설계 없이 자율 에이전트를 바로 배포한 팀에서 롤백 비율이 높다는 패턴이 실무 사례에서 관측됨
근거 출처:Anthropic: Building Effective Agents
외부 인용 링크
이 글에 대해 궁금한 점이 있으신가요?
질문하기에서 로그인 후 익명으로 질문해 보세요.