OpenAI API Docs
Agent orchestration and handoffs guide
提供了 OpenAI 对 agent 设计的官方视角,强调 orchestration、handoff 和 workflow 结构,而不只是 prompt。
打开原始资料Systems
Premium可靠的 agent 不是因为模型说得像就去行动,而是要经过澄清、取证、动作边界、恢复顺序和可复用 operator skill 的设计。
Trust Layer
内容不是从碎片信息拼出来的,而是按“官方资料定义 + 产品实践抽象 + 可执行练习”三层整理。
Learning Objectives
把模型推理和工具执行、人工确认、恢复逻辑区分开
为一个真实 workflow 设计澄清、取证、决策、执行、校验和交接阶段
把高频 operator 行为沉淀成 SOP 或 skill,而不是一次次临场点击
Practice Task
选一个会调用工具、API 或外部系统的 workflow,写清它的触发条件、前置条件、所需证据、确认规则、降级路径、停止条件,以及哪一部分最值得沉淀成 skill 或 SOP。
Editorial Review
已审核 · DepthPilot Editorial · 2026-03-09
本课基于 OpenAI 和 Anthropic 当前关于 orchestration、handoff 和工具设计的官方内容。
同时补充了可信实践方对 middleware 的经验,避免课程停留在抽象原则。
课程刻意把 agent 行为讲成系统问题,帮助用户建立判断力,而不是继续迷信自动自治。
Primary Sources
OpenAI API Docs
提供了 OpenAI 对 agent 设计的官方视角,强调 orchestration、handoff 和 workflow 结构,而不只是 prompt。
打开原始资料OpenAI API Docs
帮助本课明确区分结构化输出和真实工具动作,避免把二者混成一回事。
打开原始资料Anthropic Engineering
支撑本课关于任务拆解、routing 和稳定 workflow 模式的讲法,让 agent 回到工程设计而不是神秘主义。
打开原始资料Anthropic Engineering
强化了本课对工具接口质量、执行边界和 agent 可靠性的关注。
打开原始资料LangChain Blog
提供了一个实践者视角,说明如何在模型决策和工具执行之间加入检查、路由和策略逻辑。
打开原始资料知识链路
这节课不是孤立文章,而是知识网络里的一个节点。先知道它连接了哪些底层能力,再决定下一步该补哪一层。
打开完整知识网络学会的证据
你能把一个 workflow 明确拆成澄清、取证、决策、执行、校验和交接阶段,而不是统称“agent flow”。
你能指出哪个动作必须确认、哪个工具输入需要证据、哪一步应该停止或降级。
最容易掉进去的误区
把一个 prompt 接上危险工具动作就叫 agent,而没有真正的 routing、边界和恢复逻辑。
主链路还没定义清楚,就先继续加更多工具和插件。
关键不在于模型会不会调工具,而在于链路知不知道什么时候该先澄清、什么时候该先取证、什么时候必须等确认、什么时候该升级给人工。只要动作碰到了真实系统,工具调用就已经是编排问题,而不是单纯 prompt 问题。