논문 리뷰/자연어처리
PLAN-AND-ACT: Improving Planning of Agents for Long-Horizon Tasks 논문 리뷰
kyj0015
2025. 6. 1. 01:49
- 링크:
https://arxiv.org/pdf/2503.09572
Background
- LLM
- 기존 LLM들은 agent 기반의 간단한 task는 쉽게 해결하지만 long-horizon tasks에 대해서는 여전히 어려움을 보임
- *Long-horizon task: sequence of action, or over a prolonged period가 필요한 task
- 특히 web navigation과 같은 실제 환경에서는 여러 단계의 planning과 execution을 균형 있게 수행해야 함
- Planning
- LLM은 reasoning과 decision-making을 잘하지만 여전히 plnning에 challenge가 있음
- 1. high-level goal을 달성하기 어려워함 (like "book me a flight to New York" -> open the airline website -> enter travel dats -> ... )
- 2. task가 길고 복잡해질수록 strategy의 일관성을 유지하는 것이 어려움 -> 여태까지 뭐했나 앞으로 뭐 남았나
- 3. real-word environments가 dynamic하고 unpredictable함
- Previous work
- 대부분 single model로 user request를 바로 actions로 전환하고자 함 -> planning-act balacing과 일관성 유지가 어려움
- RL 적용하니 unstable하고 hyperparameters와 reward design에 매우 민감함
- 1. React based: single model로 user query를 sequence of action으로 매핑
- 2. LLMCompliler: PLANNER는 sequence of plans를 생성하고, Executor는 각 step을 environment specific action으로 전환함
- -> 우리는 여기에다가 manual annotation or a sandbox environment 없이 PLANNER 학습용 training data를 생성하는 방법을 제안
- * sandbox environment: 프로그램을 테스트 및 분석할 수 있는 격리된 가상 공간
- Problem statement
- 1. high-level의 planning을 low-level로 분해하기 어려움
- 2. long-horizon task의 경우 단계가 많아지면서 해결이 어려움
- 3. 실시간으로 변화하는 웹은 예기치 못한 오류 (검색 결과 없음 등)에 대처하기 어려움
- 4. 사람이 고품질의 계획 데이터를 수집 및 주석 달기 어려움
- -> PLAN-AND-ACT framework를 제안
Methods
- PLAN-AND-ACT framework
- PLANNER와 EXECUTOR로 구성
- PLANNER: user query 를 받아 목표를 달성하기 위한 상위 레벨의 plan을 생성
- EXECUTOR: PLANNER가 생성한 계획을 받아 웹 환경에서 구체적인 낮은 레벨의 environment-specific한 action을 수행
- -> PLANNER는 계획 생성에 집중하고, EXECUTOR는 계획-액션 변환에 집중
- Dynamic replanning 및 CoT (Chain-of-Thought)
- PLANNER가 최초 계획을 생성한 후, EXECUTOR가 한 단계 액션을 수행하면 그 결과를 PLANNER가 다시 받아 "남은 단계를 어떻게 수정할지" 재계획
- 이를 통해 예기치 못한 환경 변화에 대처
- PLANNER가 plan으로 관련 context를 전달하기 때문에, 명시적인 메모리 모듈 없이도 long-horizon task 해결 가능
- Chain-of-Thought Reasoning
- PLANNER와 EXECUTOR 둘 다 생성 전에 중간 추론 과정을 출력하여 더 높은 성능
- 이 과정은 특히 큰 모델 (70B)보다 작은 모델 (8B)에서 계획 및 액션의 정확도를 높임
- Synthetic Data Generation
- Off-the-shelf LLM
- 일반적인 Off-the-shelf LLM은 pretraining 과정에서 관련 데이터를 보거나 학습하지 못해서 planning이나 executing의 기능을 기대할 수 없음
- prompt engineering과 in-context examples만으로 long-horizon task를 해결하기는 어려움
- Finetuning을 통해서 높은 성능을 낼 수 있으나, 튜닝을 위해서는 상당한 양의 데이터가 필요했음 -> 많은 시간과 노력 필요
- Action Trajectory Generation
- Alpaca-style data generation pipeline을 사용해 user queries를 랜덤으로 추출함
- 이를 LLM의 seed로 사용해 similar queries를 생성
- web agent에게 impossible한 trajectories를 LLM으로 걸러내기
- Environment에서 새로 생성된 instruction (similar queries) 중에 task 수행이 가능한 데이터만 수집
- ORM (outcome-supervised reward model)을 사용하여 이 trajectories에 점수를 매겨 사용자의 의도대로 문제를 해결/실패 했는지 trajectories를 필터링 (ORM-Llama-3.1-8B 그대로 사용)
- -> trajectories를 생성
- Grounded Plan Generation
- PLANNER를 학습시키기 위해서 가장 naive한 방식으로는 teacher LLM에게 user query와 prompt를 제공하여 step-by-step plan을 생성하도록 함 -> 하지만 teacher LLM은 actual environment에 접근하기 어려움 -> LLM의 in-context learninng capability를 활용해보자
- 4.1에서 생성한 trajectories에서 structed plans를 reverse engineer하도록 유도함
- reverse engineer: LLM에게 seq of action을 분석하고, EXECUTOR를 downstream으로 안내하는데 사용할 일관된 계획을 종합함
- trajectory의 어떤 하위 작업이 어떤 상위 작업에 할당될 것인지 -> 계획이 실제 환경에 기반을 두고 있는지, plan과 actual execution의 trajectory가 일치하는지 -> 정확하고 실행 가능한지 측정 가능
- Synthetic Plan Expansion
- 4.1과 4.2를 통해 synthetic plan을 생성함 -> 평균적으로 8단계가 걸림 -> 데이터 불균형 -> synthetic plans로 확
- synthetic PLANNER plan data에서 query-plan pairs를 랜덤 샘플 -> 데이터가 다양해짐 -> 어떤 종류의 작업이 더 어려운지 고려하지 않음
- 각 웹사이트의 failure node와 관련 있을 수 있는 training data points를 분류하고, 이를 seed data로 사용하여 5,000개의 synthetic plans를 추가 생성
- Off-the-shelf LLM
Experiment
- Table 1, 4
- 각 모델 별 비교 실험 (*는 이전 논문에서 보고된 값)
- Synthetic trajectories만으로 baseline보다 효율적인 학습 가능
- 모델의 사이즈가 크다고해서 무조건 좋은 것이 아니라 PLAN-AND-ACTOR로 구분하는 것이 중요함을 강조
- Table 3
- NNetNav, AutoWebGLM은 작은 모델이라 매우 낮은 성능
- WebPilot, AgentOccam, AgentOccam-Judge는 closed-source의 거대 모델로 어느정도의 성능을 보임
- PLAN-AND-ACT는 작은 모델로도 높은 성능을 보임
- 왜 더 작은 모델인 QWQ-32B가 더 높은 성능을 내는걸까?
- 논문 저자에게 물어 본 결과, QWQ-32B는 RL로 추론 과정에 더 집중하도록 학습됨. Llama-70B의 경우 Instruction tuning으로 학습되었음. 학습 과정에서 CoT를 활용하여 학습하였기 때문에 이 학습 과정이 QWQ-32B와 더 잘 맞을 것이라 함
Result
- WebArena-Lite benchmark와 WebVoyager에서 SOTA 달성
- Plananing과 execution으로 분리하여 유용함을 증명
Contribution
- Planning과 execution으로 구분하여 long-horizon task의 planning을 개선시킨 PLAN-AND-ACT framework 제안
- planner data를 생성하기 위한 synthetic data generation pipeline을 제안
- WebArena-Lite environment에서 web navigation을 평가하여 SOTA 달성
Limitation
- 데이터를 증강하기 위해서는 초기 trajectory data가 필요함
- dynamic replanning은 모든 액션마다 PLANNER를 호출하여 비효율적임
논문 저자에게 물어봄 / 25-06-04 -> 답장 받아 수정 / 25-06-07