第 01 层:模型现实
第 02 层:系统设计
第 03 层:可靠性
第 04 层:交付
Blueprint
DepthPilot 不是按主题堆课,而是按“用户最终能交付什么”来组织教学。知识网络决定学什么,课程模式决定怎么学,验收标准决定是不是真的学会了。
Knowledge Backbone
知识网络负责定义节点、前置依赖和掌握证据;教学蓝图负责把这些节点翻译成知识课、跟做课、项目课和验收课。两层必须同时存在,内容才不会越做越散。
打开知识网络第 01 层:模型现实
第 02 层:系统设计
第 03 层:可靠性
第 04 层:交付
路径 01:先看清模型
路径 02:做出可靠工作流
路径 03:把工作流交付成产品
Teaching principle
每节课都从用户每天会遇到的 AI 问题切入,而不是直接抛术语定义。
Teaching principle
课程结束时必须产出可见成果,例如截图、可运行页面、配置完成证明、项目说明或验收报告。
Teaching principle
关键概念优先锚定官方文档或一手资料,再由课程编辑做结构化抽象和实战翻译。
Teaching principle
用户不仅要做对题,还要能用自己的系统、自己的工作流重做出来。
Skill Paths
已经高频使用 AI,但无法稳定解释效果差异的用户
把“会用 AI”升级成“会诊断和设计 AI 系统”
Final Capability
能判断问题出在 prompt、上下文、数据、工具调用还是评估机制。
理解 token、context、eval 的系统约束
能把长 prompt 拆成结构化上下文架构
能建立最小 eval loop 并用失败样本改进系统
想按教程快速把工具配置起来并真正上手的人
从跟着装环境,走到能独立复配、排错和交付成果
Final Capability
能独立完成 OpenClaw、Supabase、Creem 等关键工具配置,并知道如何验证是否成功。
跟做完成一个工具的从零配置
理解关键配置项的作用和常见失败点
能把配置成果变成项目中的一部分
希望把 AI 能力做成真实产品或内部系统的人
把知识课、技能课和项目课串成一个可上线的产品能力网络
Final Capability
能交付一个带认证、订阅、内容、学习数据和可信度层的 AI 产品。
做出最小可运行原型
补齐账号、订阅和数据闭环
为内容建立来源、审核和更新机制
Course Network
Foundations · 知识课 · 18 分钟
让用户理解 AI 系统为什么会被 token 预算约束。
How We Teach
从真实问题切入
讲清 token 与 context 的关系
给出工作流拆分练习
User Outcomes
理解 token budget 为什么影响产品能力边界
区分常驻信息和按需注入信息
开始用预算视角观察自己的工作流
Validation
即时小测
反思练习
知识卡收藏
Deliverables
1 张知识卡
1 段反思
1 次小测结果
Motivation Hooks
意识到以前在错误位置堆 prompt
能马上映射到自己的工作流
Foundations · 知识课 · 26 分钟
让用户从“写一段更详细的话”升级成“设计一个系统能验证的输出接口”。
How We Teach
从下游系统猜意思的真实失败切入
讲清 framing、schema 和 action 三种不同职责
要求用户把自由文本输出改写成契约
User Outcomes
知道什么时候该用自然语言、结构化输出或函数调用
会把一个真实任务改造成字段和类型清晰的输出契约
理解为什么失败必须显性化,而不能继续让系统猜
Validation
多题小测
输出契约改写练习
反思重构
Deliverables
1 份输出契约草案
1 张知识卡
1 次多题小测结果
Motivation Hooks
第一次意识到 prompt 也可以像接口设计一样被约束
会明显感觉系统控制力增强
Foundations · 知识课 · 24 分钟
让用户学会什么时候该让模型回答,什么时候该澄清、检索、调工具或停下来。
How We Teach
从高自信错答的真实失败切入
讲清模型能力、证据、权限和工具之间的边界
要求用户把自己的任务改成决策梯子
User Outcomes
区分模型流畅度和真实可靠性
会用直接回答 / 澄清 / 检索 / 工具 / 拒答五种路径给任务分流
能把高自信错答改写成更稳的工作流边界
Validation
多题小测
任务分流练习
反思重构
Deliverables
1 份任务分流清单
1 张知识卡
1 次多题小测结果
Motivation Hooks
第一次看清“像对”和“真的可靠”的差别
会明显感觉自己不再被模型带着跑
Systems · 知识课 · 22 分钟
把用户从“写长 prompt”带到“设计上下文架构”。
How We Teach
先展示失败案例
再拆解三层上下文结构
最后要求用户写出自己的方案
User Outcomes
拆开系统规则、任务状态、即时证据
判断问题是提示问题还是架构问题
开始重构自己的长 prompt
Systems · 知识课 · 30 分钟
让用户学会用 routing、动作边界、恢复顺序和可复用 skill 来设计工具 workflow,而不是继续迷信 agent 会自动处理好一切。
How We Teach
从一个看起来很聪明、但碰到真实动作就脆弱的 workflow 切入
把链路拆成 routing、权限、执行和恢复四层职责
要求用户把一个 workflow 改写成可执行的操作设计
User Outcomes
把模型推理和工具执行、确认逻辑分开
为一个真实 workflow 设计澄清、取证、决策、执行、校验和交接阶段
把重复 operator 行为沉淀成可复用 SOP 或 skill
Validation
多题小测
workflow routing 练习
反思重构
Deliverables
1 份 workflow routing 表
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会停止把“有工具”误当成“能上线”
这节课会立刻提升 agent、自动化和运营流程的掌控感
Systems · 知识课 · 29 分钟
教会用户把 retrieval 来源当成有 owner、有 freshness class 和过期规则的资产,而不是一次性塞进向量库的文档堆。
How We Teach
从一个“有来源但还是错”的旧证据案例切入
把 freshness 拆成 class、metadata、owner 和 fallback 行为
要求用户真的治理一个知识源,而不是抽象讨论 RAG
User Outcomes
区分 retrieval 质量与 freshness / governance 质量
为真实知识源定义 owner、review cadence 和 expiry threshold
判断 grounded 答案为什么会因为旧证据、混乱版本或无人治理而失效
Validation
多题小测
freshness register 草稿
反思改写
Deliverables
1 份 freshness register
1 张知识卡
1 份多题小测结果
Motivation Hooks
用户会意识到 retrieval 能跑通,不代表知识真的可信
这节课会立刻改善内部文档助手、政策问答和支持型 copilot
Systems · 知识课 · 28 分钟
让用户掌握什么时候必须取证、怎么取证、以及怎么把答案重新绑回来源和新鲜度。
How We Teach
从依赖最新事实却硬答的真实失败切入
讲清 evidence routing、freshness 和 provenance 的系统责任
要求用户把自己的一个问题改写成检索链
User Outcomes
区分 retrieval 和单纯加长上下文的差别
会把真实问题设计成查询、筛选、注入、引用四步链路
能判断一次错误到底是缺证据、证据过时还是检索噪声过大
Validation
多题小测
检索链设计练习
反思重构
Deliverables
1 份 retrieval chain 草案
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会第一次感觉自己在掌控证据,而不是盲信模型
能直接改善知识库、文档问答和内部搜索场景
Evaluation · 知识课 · 32 分钟
让用户真正学会把安全做成边界、确认和止损机制,而不是继续往 prompt 里加警告。
How We Teach
从真实注入或越权风险场景切入
讲清 trust boundary、action boundary 和 graceful downgrade
要求用户对自己的 workflow 做 guardrail 审计
User Outcomes
知道不可信文本、系统规则和工具动作应该如何分层
能识别 prompt injection、prompt leak 和越权执行路径
能为一个真实 workflow 设计输入隔离、动作确认和降级方案
Validation
多题小测
guardrail 审计练习
反思重构
Deliverables
1 份 trust boundary 草图
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会明显感觉自己不再只会“求模型听话”
对 agent、知识库和带工具系统的实战价值很高
Evaluation · 知识课 · 30 分钟
让用户掌握如何记录、重放和标注坏 case,真正知道系统到底坏在哪一层。
How We Teach
从一次无法复现的线上失败切入
讲清 trace、replay 和 failure label 各自的作用
要求用户把自己的一个坏 case 改写成可重放调试记录
User Outcomes
知道最小 trace 应该记录哪些信息
会先重放失败,再决定该修 prompt、检索、工具还是编排
会用 failure label 把坏 case 变成后续可评估、可排期的资产
Validation
多题小测
trace 模板设计练习
反思重构
Deliverables
1 份最小 trace 模板
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会明显感觉自己从“猜问题”转向“定位问题”
对真实 agent 和工作流排错帮助非常直接
Evaluation · 知识课 · 31 分钟
教会用户把含糊质量判断改写成维度、锚点、阈值和 grader 规则,让第二个操作者也能复查。
How We Teach
从一个大家都说“感觉更好”却没人能清楚打分的 workflow 切入
把评估拆成维度、锚点和覆盖平均分的规则
要求用户产出一份别人也能实际应用的 rubric
User Outcomes
把一个抽象质量目标改写成带维度和评分锚点的 rubric
保留维度分和 hard-stop 规则,而不是只看总分
用 rubric 证据决定先修哪一层
Validation
多题小测
rubric 草稿
反思改写
Deliverables
1 份 scoring rubric
1 份 grader note
1 份多题小测结果
Motivation Hooks
用户会停止把质量当成口味
这节课会直接把 eval 概念接到上线和回滚决策上
Evaluation · 知识课 · 30 分钟
让用户建立真实的性能与成本判断力,知道先消灭系统浪费,再谈模型价格。
How We Teach
从演示能跑、上线就贵又慢的真实问题切入
讲清关键路径、缓存、批处理、异步和降级策略
要求用户对自己的一个 workflow 做成本与延迟审计
User Outcomes
区分用户感知延迟和系统总延迟
能找出请求冗余、上下文膨胀、输出过长和缺缓存这些真实浪费
能为一个 workflow 写出最小 latency/cost 审计草案
Validation
多题小测
latency/cost 审计练习
反思重构
Deliverables
1 份 latency/cost 审计草案
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会第一次看清很多浪费根本不在模型单价
这节课能直接帮助真实产品降本增效
Evaluation · 知识课 · 32 分钟
让用户学会按任务价值、风险、证据需求和预算来分流请求,并保留澄清、检索、拒答和升级处理的权利。
How We Teach
从所有请求都走一条回答路径带来的成本和可靠性损害切入
把 routing 拆成任务分类、阈值和 fallback 逻辑
要求用户写出一份显式 unsupported-answer policy
User Outcomes
为不同任务类别设计 routing matrix,而不是默认所有请求都走同一条模型路径
定义系统什么时候该直接回答,什么时候其实不该回答
用 eval、abstention 表现、延迟和成本来判断 routing policy
Validation
多题小测
routing policy 草案
反思重构
Deliverables
1 份 routing matrix 草案
1 张知识卡
1 次多题小测结果
Motivation Hooks
用户会停止把“总能答”误当成强产品
这节课会立刻提升客服机器人、copilot 和内部工具的可靠性
Evaluation · 知识课 · 20 分钟
把“感觉好像更好了”升级成可验证的系统改进。
How We Teach
从真实失败样本出发
给出最小 eval loop 模板
要求用户把失败案例变成评估样本
User Outcomes
能收集真实失败样本
能定义最小评估集
能把评估结果绑定到上线或回滚决策
Validation
即时小测
失败样本收集任务
评估草案
Deliverables
1 份最小评估集草案
1 张知识卡
1 次小测结果
Motivation Hooks
第一次看清为什么上线经常回归
评估闭环会带来掌控感
Evaluation · 知识课 · 30 分钟
教会用户定义 hard stop、review queue owner 和 handoff packet,让系统在 unsupported answer 或危险动作前停下来。
How We Teach
从一条因为不愿升级而过度回答的 workflow 切入
把问题拆成 hard-stop、owner、SLA 和 handoff 证据
要求用户真的设计一条 review queue,而不是喊 human-in-the-loop 口号
User Outcomes
为风险、权限、证据和政策敏感请求定义 escalation trigger
设计人工 reviewer 可以直接接手的 handoff packet
把升级给人当成质量路径,而不是产品丢脸
Validation
多题小测
escalation policy 草稿
反思改写
Deliverables
1 份 escalation policy
1 份 handoff packet
1 份多题小测结果
Motivation Hooks
用户会从“必须回答”转向“必须判断该不该回答”
这节课会立刻提升客服、审批流和行动型 workflow 的信任度
Delivery · 跟做课 · 55 分钟
跑通 Checkout、Webhook、Customer Portal 和站内权限联动。
How We Teach
先在测试环境完成商品和 webhook 配置
再对照应用里的 billing 逻辑
最后用权限和数据库状态验收
User Outcomes
创建测试商品并正确写入环境变量
跑通 Creem Checkout、Portal 和 webhook
知道为什么不能只看 success_url
Validation
支付链路截图
Webhook 自测
订阅表状态核对
权限开关验证
Deliverables
1 条完整订阅链路
1 份 billing 自测清单
1 段 webhook 排错复盘
Motivation Hooks
支付成功真正变成权限解锁
支付、权限、产品能力第一次被串起来
Delivery · 跟做课 · 45-60 分钟
让用户不靠猜测,跟着步骤把 OpenClaw 配起来并验证成功。
How We Teach
课前明确交付物和环境要求
每一步都用 checklist 推进
每一步都有成功标准和失败排查提示
User Outcomes
完成环境准备、配置填充和启动验证
理解关键配置项的作用
遇到失败时知道优先检查什么
Validation
步骤 checklist 完成
运行截图
最小排错复盘
Deliverables
1 个成功运行的 OpenClaw 环境
1 组截图证明
1 份排错笔记
Motivation Hooks
一节课内就能看到工具跑起来
反馈强,不再只是“看懂了”
Delivery · 跟做课 · 50 分钟
完成从数据库、Auth 到页面登录状态联动的整条链路。
How We Teach
先展示最终状态
再接表、环境变量和 helper
最后完成页面联动
User Outcomes
创建用户表和 RLS 规则
跑通登录、退出、会话刷新
知道 auth 为什么不能只做前端页面
Validation
运行截图
Auth 链路自测
关键配置复述
Deliverables
1 套可用登录系统
1 份自测 checklist
Motivation Hooks
页面联动很直观
成果可直接复用到自己的项目
Delivery · 验收课 · 35 分钟
审计一条 retrieval workflow 的 freshness class、owner、metadata 和 stale-content 处理方式,避免系统悄悄把旧真相当成新真相上线。
How We Teach
从一条看似 grounded 但容易吃到旧证据的 workflow 切入
围绕 source class、metadata、owner 和 fallback 行为审计
要求交付物可以直接用于上线前 review
User Outcomes
产出一份 freshness register,给不同来源写清 class 和过期阈值
定义文档的 version、owner 和 approval status 规则
建立 stale-content triage 路径,明确什么时候澄清、刷新或升级处理
Validation
freshness register
治理审查
stale-content triage 审查
审计复盘
Deliverables
1 份 freshness register
1 份 refresh policy
1 份 stale-content triage 表
Motivation Hooks
用户会停止把 retrieval 当成等于可信知识
这节审计会立刻改善政策机器人、内部搜索和支持助手
Delivery · 验收课 · 40 分钟
审计一条真实 workflow,把模糊风险变成 trust boundary、动作确认矩阵和止损方案。
How We Teach
先画 threat model 和边界,再谈 prompt 写法
用审计梯子和红队样例驱动,而不是只讲原则
要求提交可复用的交付物,而不是停在讨论
User Outcomes
把 trusted / untrusted 内容分开,而不是把所有文本都当成一样
找出哪些工具动作会被风险输入越界触发
产出一份上线前能真正复用的 guardrail 审计报告
Validation
审计清单
交付物审查
红队证据
复盘答辩
Deliverables
1 张 trust boundary 图
1 份动作确认矩阵
1 份 guardrail 审计报告
Motivation Hooks
用户会从“希望模型听话”转到“主动设计止损”
这节课会带来很强的掌控感
Delivery · 验收课 · 35 分钟
把一条 workflow 审成真正的升级路径,写清 hard stop、queue owner、SLA 和 handoff packet,让高风险 case 干净地停下并交给人。
How We Teach
从一条现在还在“该停不停”的 workflow 切入
围绕 escalation trigger、owner、SLA 和 packet 设计来审计
要求交付物让升级路径可审计,而不是停留在口头承诺
User Outcomes
定义强制升级而不是 unsupported answer 的 hard-stop trigger
分配 queue owner 和 review expectation
产出一份保留关键证据的 handoff packet 模板
Validation
escalation policy 审查
queue 审查
handoff packet 审查
审计复盘
Deliverables
1 份 escalation policy
1 份 review queue scorecard
1 份 handoff packet 模板
Motivation Hooks
用户会停止把升级给人当成产品失败
这节实战会直接提升支持、审批和行动链路的信任
Delivery · 验收课 · 40 分钟
在换模型之前,先审清楚请求浪费、上下文膨胀、缓存机会、异步空间和预算权衡。
How We Teach
先建立 baseline,再谈优化
先查系统浪费,再谈模型切换
要求用户带走可直接复用回产品里的报告
User Outcomes
区分用户感知延迟和后台总耗时
抓出请求数、prompt 大小、输出长度和检索体量上的浪费
产出一份有优先级的优化清单和性能预算报告
Validation
审计清单
交付物审查
baseline 证据
优化复盘
Deliverables
1 份请求库存表
1 份性能预算报告
1 份优化优先级清单
Motivation Hooks
用户常常会第一次发现真正最贵最慢的不在模型价格
这节课能直接转成真实产品的降本增效
Delivery · 验收课 · 40 分钟
审计一个依赖证据的 workflow,把检索范围、时效性、来源链和无法支持时的处理方式讲清楚。
How We Teach
从一个本该取证却直接回答的失败案例切入
围绕 evidence routing、freshness 和 citation 逐层审计
要求提交一份可用于上线评审的报告
User Outcomes
画出系统什么时候该检索、引用、拒答或升级处理
在上线前发现证据过时、检索噪声和来源缺失
产出一份真实 workflow 可复用的 retrieval 审计报告和证据链清单
Validation
证据链清单
交付物审查
引用证明
审计复盘
Deliverables
1 份 retrieval 审计报告
1 份证据链检查清单
1 份无法支持时的处理策略
Motivation Hooks
用户会不再把 retrieval 当成模糊的 RAG 概念
这节课会立刻提升文档问答和内部知识系统的可靠性
Delivery · 验收课 · 35 分钟
审计一个真实 workflow 的任务分类、模型路径、fallback 阈值和 unsupported-answer 行为,在上线前把政策写清楚。
How We Teach
从一个现在还在过度回答或过度花钱的 workflow 切入
围绕任务分类、routing 阈值和 unsupported-answer 处理来审计
要求交付可被第二个操作者审核和执行的 policy 文档
User Outcomes
定义一个符合任务价值、风险、证据需求和预算的 routing matrix
写出覆盖澄清、检索、拒答和升级处理的 unsupported-answer policy
产出一份 fallback ladder,而不是让系统在不确定时临场发挥
Validation
routing matrix
policy 审查
fallback ladder 审查
审计复盘
Deliverables
1 份 model-routing matrix
1 份 unsupported-answer policy
1 份 fallback ladder
Motivation Hooks
用户会从 prompt 乐观主义转向操作政策
这节审计会直接改善真实产品的成本、信任和失败处理
Delivery · 验收课 · 35 分钟
把一条 workflow 做成真正可评分的 review system,写出维度、锚点、hard-stop 和 grader 说明,让第二个 reviewer 也能复用。
How We Teach
从一条现在还靠感觉评质量的 workflow 切入
围绕维度、锚点、hard stop 和 calibration 做审计
要求交付物让第二个操作者也能复查质量
User Outcomes
为真实 workflow 写出一份 rubric 和评分锚点
定义 grader 规则和 hard-fail 条件,而不是只看总体印象
留下 calibration sheet,让评分分歧真正可见
Validation
rubric 审查
grader spec 审查
calibration 审查
审计复盘
Deliverables
1 份 scoring rubric
1 份 grader spec
1 份 calibration sheet
Motivation Hooks
用户会停止用感觉争论质量
这节实战会直接强化上线、回归和 trace review
Delivery · 验收课 · 35 分钟
审计一个会调用工具的 workflow,把 routing 顺序、确认关卡、恢复步骤和该沉淀成 skill 的 operator 逻辑讲清楚。
How We Teach
从一个看起来很 agent、但其实很脆弱的 workflow 切入
围绕 routing 顺序、工具边界和恢复顺序来做审计
要求交付一份不依赖某个熟练操作者也能复用的成果
User Outcomes
把 workflow 画成明确的澄清、取证、执行、校验和交接阶段
定义哪些动作需要证据、哪些需要确认、哪些绝不能自动运行
产出一份 routing 表、一份工具边界清单和一份 operator skill brief
Validation
routing 表
清单审查
skill brief 审查
审计复盘
Deliverables
1 份 workflow routing 表
1 份工具边界检查清单
1 份 operator skill brief
Motivation Hooks
用户会从 agent 戏法转向操作控制
这些交付物会立刻改善团队的自动化和工具流程
Delivery · 验收课 · 35 分钟
把一个模糊 AI 步骤改造成有 schema、失败状态和下游验收规则的输出契约。
How We Teach
从下游集成出错切入,而不是继续讲 prompt 技巧
按 framing、schema、验收检查三层契约梯子推进
要求提交可被第二个操作者复核的规范和清单
User Outcomes
把自由文本推理和下游必须信任的数据结果分开
为一个真实任务定义字段、枚举、空值行为和显性失败路径
产出一份工程或运营都能直接复用的输出契约说明
Validation
Schema 清单
交付物审查
失败路径审查
复盘答辩
Deliverables
1 份输出契约说明
1 份 schema 审查清单
1 份失败状态策略
Motivation Hooks
用户会明显感到自己从“写提示词”转向“设计接口”
这份交付物能立刻复用到真实产品和自动化流程
Delivery · 项目课 · 2-4 小时
把前面的概念课和技能课整合成一个完整交付物。
How We Teach
提供项目范围和验收标准
按内容、Auth、订阅、数据、可信度层分阶段推进
要求提交最终 demo 和复盘
User Outcomes
独立搭出完整产品闭环
解释自己的架构选择
展示真实可运行成果
Validation
项目验收
交付物审查
复盘答辩
Deliverables
1 个在线或本地可运行 demo
1 份架构说明
1 份项目复盘
Motivation Hooks
用户最终拿到的是作品
最容易形成成就感和传播价值
Search Cluster
搜索页不应该只是流量钩子,而应该把用户从搜索词直接带进一条能学会、能交付的路径。
Prompt Engineering Course
这页面向真正搜索“prompt engineering course”的用户,但 DepthPilot 不把它做成提示词花活合集,而是把 prompt 放回系统设计、上下文架构和评估闭环里。
打开路径AI Workflow Course
如果用户搜的是“AI workflow course”,他真正需要的不是再看一次模型介绍,而是学会把 AI 接进真实工作流、工具链、权限和交付标准。
打开路径OpenClaw Tutorial
这个入口页直接对齐 OpenClaw tutorial 搜索意图,帮用户先理解自己会拿到什么,再进入正式跟做课、skills 页和项目路径。
打开路径AI Eval Checklist
搜 AI eval checklist 的用户通常不缺观点,缺的是一份能执行的核对清单。这个页面把 eval 的最小判断框架直接收成清单式入口。
打开路径Human in the Loop AI
很多人搜索 human in the loop AI,只是想知道“要不要人来审核”。DepthPilot 关心的是更实战的问题:什么时候必须停下、谁来接手、接手时系统要交什么证据。
打开路径RAG Freshness Governance
很多团队把 RAG 做成“能搜到一些文档”,然后就默认系统有了可靠知识。DepthPilot 关心的是:这些文档谁负责、多久过期、版本怎么治理、过时了怎么办。
打开路径LLM Evaluation Rubric
很多人在搜索 LLM evaluation rubric 时,只是想找一张模板。DepthPilot 更进一步:我们把 rubric 变成维度、锚点、hard-stop 和 grader 规则,帮助用户真正决定系统哪里坏了、先修哪里。
打开路径