Agentic设计模式:ReAct
ReAct设计模式将智能体的行为结构化为**显式的推理循环**,将思维链(CoT)推理与智能体的工具交互结合起来,让智能体在思考和行动之间交替进行,从而实现复杂、自适应的问题求解。
ReAct
ReAct(Reason and Act,推理与行动)模式是一种核心智能体逻辑模式,它将智能体的行为结构化为显式的推理循环。它的出现是为了克服单一 LLM 推理的局限性,将 思维链(CoT)推理与智能体的工具交互结合起来,让智能体在思考和行动之间交替进行,从而实现复杂、自适应的问题求解。它属于高级提示工程技术,通过结构化其决策过程,使其能够应对复杂的、不可预测的任务。
Pattern Card
 |  | 
比喻:ReAct 模式
如果将一个智能体比作一个数字侦探,那么 ReAct 模式就是这位侦探的工作日志和工具箱。他不会凭空猜出答案(单一 CoT),而是:
- (思考) 翻开日志写下:“我需要知道嫌疑人的不在场证明。”
 - (行动) 掏出电话呼叫证人(工具调用)。
 - (观察) 听完证人的回答(工具结果)。
 - 然后基于这个新信息,(再次思考),继续下一步行动。
 
这份日志(推理链)保证了每一步都是有据可查的,确保他不会过早下结论或陷入幻觉。
I. 概述、背景与核心问题(Context & Problem)
核心概念与定义 ReAct 模式(Reason and Act)通过将智能体的思维过程和行动结构化为显式的推理循环来指导其行为。它将智能体的思考过程和行动构架为一系列自然语言交互的序列。
解决的问题 在复杂的任务中,单体智能体可能会面临延迟增加、工具选择或使用不正确或未能完成任务等问题。ReAct 通过以下方式应对这些挑战: • 克服单次推理的局限: 它通过迭代循环,允许智能体动态地构建计划,收集证据,并随着任务的进展调整其方法。 • 弥补推理空白: 它通过迫使智能体在每一步都基于可观察的结果进行决策,有效减少了事实幻觉和过早得出结论的风险。 • 增强能力边界: 它赋予智能体实际执行步骤并与动态环境互动的能力,突破了 LLM 静态知识的限制。
II. 核心思想、角色与机制(Core Concept & Workflow)
ReAct 模式的核心是迭代循环,智能体在以下三个阶段中交替运行,直到达到终止条件(例如,找到确切答案,或达到最大迭代次数):
- 思考/推理 (Thought/Reasoning): 智能体首先对当前任务进行推理,分析现有信息,识别知识差距,并决定下一步行动。模型对任务进行推理,以决定下一步做什么。
 - 行动 (Action): 根据思考结果,智能体执行一个具体的行动,例如调用一个外部工具或查询。模型根据计划执行下一个步骤。
 - 观察 (Observation): 智能体接收并评估行动产生的结果(例如,工具的返回值或环境的新状态)。观察结果将作为下一次“思考”环节的输入。
 
这个循环会重复进行,使智能体能够根据最新的观察动态调整计划。
III. 架构蓝图与可视化(Architecture & Visualization)
ReAct 模式在图形上通常表示为一个闭环结构。 • 结构元素: 循环由“思考”节点(如云朵图标)、“行动”节点(如机器人图标)和“观察”节点(如眼睛图标)构成。 • 流程流向: 思考 → 行动 → 观察 → (回到)思考。 • 核心关联: 该模式是一种单智能体架构,其有效性高度依赖于工具使用(函数调用)能力,使其能够与外部环境互动。
graph TB
  subgraph "ReAct Architecture"
      Start([用户查询]) --> Init[初始化状态]
      
      Init --> Think{推理器<br/>Thought}
      
      Think -->|需要更多信息| Plan[计划行动<br/>Action Planning]
      Think -->|信息充足| Synthesize[综合答案<br/>Answer Synthesis]
      
      Plan --> Execute[执行器<br/>Tool Execution]
      Execute --> Observe[观察器<br/>Result Observation]
      
      Observe --> Update[更新记忆<br/>Memory Update]
      Update --> Check{控制器<br/>检查终止条件}
      
      Check -->|继续| Think
      Check -->|达到限制| Synthesize
      
      Synthesize --> End([最终答案])
      
      subgraph "State Management"
          Memory[(工作记忆<br/>- Thoughts<br/>- Actions<br/>- Observations)]
          Tools[工具注册表<br/>- Search API<br/>- Calculator<br/>- Database<br/>- Code Exec]
      end
      
      Update -.-> Memory
      Execute -.-> Tools
      Think -.-> Memory
  end
  
  style Start fill:#e8f5e9
  style End fill:#e8f5e9
  style Think fill:#fff3e0
  style Execute fill:#ffebee
  style Observe fill:#f3e5f5
  style Memory fill:#e3f2fd
  style Tools fill:#fce4ec
IV. 优势、价值与设计权衡(Value & Trade-offs)
价值与优势 • 提高透明度与可审计性: 推理过程是外化的,每个决策步骤都可见,这创建了一个清晰的审计追踪。当智能体失败时,开发者能精确地定位到逻辑断裂点。模型思维提供了推理记录,有助于调试。 • 减少幻觉: ReAct 通过强制每一步决策都基于可观察的结果,防止智能体过早结论,有效减少了幻觉(虚假信息)的产生。AutoGPT 在此模式下的幻觉率显著低于 CoT 方法。
局限性与设计权衡 • 成本与延迟: ReAct 牺牲速度来换取深思熟虑。每次推理循环都需要额外的模型调用,这会显著增加延迟和计算成本。 • 错误传播: 如果某个观察步骤中工具返回了错误或误导性结果,该错误可以传播到后续的推理步骤中,导致最终答案不正确。 • 依赖基础模型能力: ReAct 模式的有效性高度依赖于底层 LLM 的推理能力;弱模型会产生弱推理链。
V. 适用场景与选择标准(Use Cases & Selection Criteria)
ReAct 模式适用于复杂且解决方案路径未预先确定的任务,是处理复杂、不可预测任务的默认起点。 • 研究与调查: 适用于需要在多个来源之间追踪证据链的研究型智能体。 • 诊断与调试: 适用于通过迭代的假设-验证循环来诊断问题的调试助手。 • 动态环境适应: 适用于需要不断基于新观察动态调整计划的场景,例如机器人规划路径以避免新障碍物。 • 非标请求处理: 适用于处理需要调查才能解决的非标准客户支持请求。
选择决策树
graph TD
    A[任务特征分析] --> B{需要外部信息?}
    B -->|否| C[使用Chain模式]
    B -->|是| D{任务复杂度?}
    D -->|低| E[使用Tool Use模式]
    D -->|高| F{需要可解释性?}
    F -->|否| G[使用Planning模式]
    F -->|是| H{延迟敏感?}
    H -->|是| I[使用Sequential+Tool]
    H -->|否| J[使用ReAct模式]
另外,成本敏感场景,ReAct的token消耗过高,可以考虑使用Sequential+Tool模式。需要确定性输出,ReAct的动态性不适合。
VI. 实现、框架支持与关联模式(Implementation & Relations)
核心实现
 |  | 
代码蓝图
最小可运行示例:
 |  | 
可配置点:
 |  | 
性能分析
 |  | 
模式变体
ReAct-EM (Error Mitigation)
1 2 3 4 5 6 7 8class ReActEM(ReActAgent): def execute_action_with_retry(self, action): try: return super().execute_action(action) except Exception as e: # 生成错误处理思考 error_thought = self.think_about_error(e) return self.plan_alternative_action(error_thought)Multi-Agent ReAct
1 2 3 4 5 6class MultiReAct: def collaborate(self, agents, query): # 专家agent负责不同工具 thoughts = [agent.think(query) for agent in agents] consensus = self.reach_consensus(thoughts) return self.coordinate_actions(consensus)模式组合策略
3.1. ReAct + Planning
 |  | 
3.2. ReAct + Reflection
- 每N步进行自我反思
 - 评估当前路径是否正确
 - 必要时回溯或改变策略
 
3.3. Future Directions
1. 神经符号结合
- 将ReAct与知识图谱结合
 - 使用符号推理增强逻辑能力
 
2. 自适应ReAct
 |  | 
框架支持
LangGraph 实现示例 LangGraph: LangGraph 框架原生支持 ReAct,并提供了预构建方法 create_react_agent 来简化实现。
 |  | 
LlamaIndex 实现示例
 |  | 
AutoGPT的任务分解 • AutoGPT: AutoGPT 架构采用了 ReAct 风格的推理-行动循环。
- 使用ReAct进行长期目标规划
 - 递归式任务分解
 - 持久化中间状态
 
AutoGen AutoGen 框架支持工具使用和 ReAct 模式的实现。
关联模式
• 工具使用(Tool Use): ReAct 是工具使用模式的高级形式,它通过工具调用实现“行动”步骤,使其能够与外部世界交互。 • 思维链(CoT): ReAct 将 CoT 推理与工具使用结合起来,形成动态的循环。 • TAO: ReAct 在功能上等同于 TAO (Thought, Action, Observation) 框架。 • 反思(Reflection): ReAct 可以与反思模式组合,例如 Reflexion 框架便是在 ReAct 循环中加入了反思和记忆组件,以实现自我修正和迭代优化。
与其他模式的关系
graph LR
  subgraph "基础模式"
      A[ReAct]
      B[Planning]
      C[Tool Use]
      D[Reflection]
  end
  
  subgraph "组合模式"
      E[ReAct + Planning<br/>计划驱动的ReAct]
      F[ReAct + Reflection<br/>自省式ReAct]
      G[Hierarchical ReAct<br/>层级化ReAct]
  end
  
  subgraph "演化模式"
      H[Multi-Agent ReAct<br/>多智能体协同]
      I[Adaptive ReAct<br/>自适应策略]
  end
  
  A --> E
  B --> E
  A --> F
  D --> F
  A --> G
  E --> H
  F --> I
  
  style A fill:#ffeb3b
  style E fill:#4caf50
  style H fill:#2196f3