DP

DepthPilot AI

System-Level Learning

Blueprint

教学蓝图

DepthPilot 不是按主题堆课,而是按“用户最终能交付什么”来组织教学。知识网络决定学什么,课程模式决定怎么学,验收标准决定是不是真的学会了。

Knowledge Backbone

先有知识网,后有课程网

知识网络负责定义节点、前置依赖和掌握证据;教学蓝图负责把这些节点翻译成知识课、跟做课、项目课和验收课。两层必须同时存在,内容才不会越做越散。

打开知识网络
四层知识层级

第 01 层:模型现实

第 02 层:系统设计

第 03 层:可靠性

第 04 层:交付

三条交付路径

路径 01:先看清模型

路径 02:做出可靠工作流

路径 03:把工作流交付成产品

Teaching principle

先解决真实问题,再讲概念

每节课都从用户每天会遇到的 AI 问题切入,而不是直接抛术语定义。

Teaching principle

先能交付,再谈理解完成

课程结束时必须产出可见成果,例如截图、可运行页面、配置完成证明、项目说明或验收报告。

Teaching principle

先有来源,再有观点

关键概念优先锚定官方文档或一手资料,再由课程编辑做结构化抽象和实战翻译。

Teaching principle

先验证迁移,再判定学会

用户不仅要做对题,还要能用自己的系统、自己的工作流重做出来。

Skill Paths

用户最终收获什么

已经高频使用 AI,但无法稳定解释效果差异的用户

AI 系统思考者

把“会用 AI”升级成“会诊断和设计 AI 系统”

Final Capability

能判断问题出在 prompt、上下文、数据、工具调用还是评估机制。

理解 token、context、eval 的系统约束

能把长 prompt 拆成结构化上下文架构

能建立最小 eval loop 并用失败样本改进系统

想按教程快速把工具配置起来并真正上手的人

工具配置操盘手

从跟着装环境,走到能独立复配、排错和交付成果

Final Capability

能独立完成 OpenClaw、Supabase、Creem 等关键工具配置,并知道如何验证是否成功。

跟做完成一个工具的从零配置

理解关键配置项的作用和常见失败点

能把配置成果变成项目中的一部分

希望把 AI 能力做成真实产品或内部系统的人

AI 产品交付者

把知识课、技能课和项目课串成一个可上线的产品能力网络

Final Capability

能交付一个带认证、订阅、内容、学习数据和可信度层的 AI 产品。

做出最小可运行原型

补齐账号、订阅和数据闭环

为内容建立来源、审核和更新机制

Course Network

课程结构

27 已上线0 待补
free已上线

Foundations · 知识课 · 18 分钟

严肃 AI 工作中的 Token 预算

让用户理解 AI 系统为什么会被 token 预算约束。

How We Teach

从真实问题切入

讲清 token 与 context 的关系

给出工作流拆分练习

User Outcomes

理解 token budget 为什么影响产品能力边界

区分常驻信息和按需注入信息

开始用预算视角观察自己的工作流

Validation

即时小测

反思练习

知识卡收藏

Deliverables

1 张知识卡

1 段反思

1 次小测结果

Motivation Hooks

意识到以前在错误位置堆 prompt

能马上映射到自己的工作流

打开这节课
free已上线

Foundations · 知识课 · 26 分钟

从会写提示到会立契约:提示设计与输出契约

让用户从“写一段更详细的话”升级成“设计一个系统能验证的输出接口”。

How We Teach

从下游系统猜意思的真实失败切入

讲清 framing、schema 和 action 三种不同职责

要求用户把自由文本输出改写成契约

User Outcomes

知道什么时候该用自然语言、结构化输出或函数调用

会把一个真实任务改造成字段和类型清晰的输出契约

理解为什么失败必须显性化,而不能继续让系统猜

Validation

多题小测

输出契约改写练习

反思重构

Deliverables

1 份输出契约草案

1 张知识卡

1 次多题小测结果

Motivation Hooks

第一次意识到 prompt 也可以像接口设计一样被约束

会明显感觉系统控制力增强

打开这节课
free已上线

Foundations · 知识课 · 24 分钟

别把流畅当正确:模型能力边界与不确定性管理

让用户学会什么时候该让模型回答,什么时候该澄清、检索、调工具或停下来。

How We Teach

从高自信错答的真实失败切入

讲清模型能力、证据、权限和工具之间的边界

要求用户把自己的任务改成决策梯子

User Outcomes

区分模型流畅度和真实可靠性

会用直接回答 / 澄清 / 检索 / 工具 / 拒答五种路径给任务分流

能把高自信错答改写成更稳的工作流边界

Validation

多题小测

任务分流练习

反思重构

Deliverables

1 份任务分流清单

1 张知识卡

1 次多题小测结果

Motivation Hooks

第一次看清“像对”和“真的可靠”的差别

会明显感觉自己不再被模型带着跑

打开这节课
premium已上线

Systems · 知识课 · 22 分钟

别再写巨型 Prompt,开始设计上下文架构

把用户从“写长 prompt”带到“设计上下文架构”。

How We Teach

先展示失败案例

再拆解三层上下文结构

最后要求用户写出自己的方案

User Outcomes

拆开系统规则、任务状态、即时证据

判断问题是提示问题还是架构问题

开始重构自己的长 prompt

Validation

即时小测

结构化反思

工作流改写草稿

Deliverables

1 份上下文分层草图

1 张知识卡

1 次小测结果

Motivation Hooks

认知反转强

能直接作用于真实系统改造

打开这节课
premium已上线

Systems · 知识课 · 30 分钟

别把 Agent 当魔法:工具调用与工作流设计

让用户学会用 routing、动作边界、恢复顺序和可复用 skill 来设计工具 workflow,而不是继续迷信 agent 会自动处理好一切。

How We Teach

从一个看起来很聪明、但碰到真实动作就脆弱的 workflow 切入

把链路拆成 routing、权限、执行和恢复四层职责

要求用户把一个 workflow 改写成可执行的操作设计

User Outcomes

把模型推理和工具执行、确认逻辑分开

为一个真实 workflow 设计澄清、取证、决策、执行、校验和交接阶段

把重复 operator 行为沉淀成可复用 SOP 或 skill

Validation

多题小测

workflow routing 练习

反思重构

Deliverables

1 份 workflow routing 表

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会停止把“有工具”误当成“能上线”

这节课会立刻提升 agent、自动化和运营流程的掌控感

打开这节课
premium已上线

Systems · 知识课 · 29 分钟

文档一旧,Grounding 就会失效:知识新鲜度与文档治理

教会用户把 retrieval 来源当成有 owner、有 freshness class 和过期规则的资产,而不是一次性塞进向量库的文档堆。

How We Teach

从一个“有来源但还是错”的旧证据案例切入

把 freshness 拆成 class、metadata、owner 和 fallback 行为

要求用户真的治理一个知识源,而不是抽象讨论 RAG

User Outcomes

区分 retrieval 质量与 freshness / governance 质量

为真实知识源定义 owner、review cadence 和 expiry threshold

判断 grounded 答案为什么会因为旧证据、混乱版本或无人治理而失效

Validation

多题小测

freshness register 草稿

反思改写

Deliverables

1 份 freshness register

1 张知识卡

1 份多题小测结果

Motivation Hooks

用户会意识到 retrieval 能跑通,不代表知识真的可信

这节课会立刻改善内部文档助手、政策问答和支持型 copilot

打开这节课
premium已上线

Systems · 知识课 · 28 分钟

检索不是多塞资料:Retrieval 与 Grounding 的真实作用

让用户掌握什么时候必须取证、怎么取证、以及怎么把答案重新绑回来源和新鲜度。

How We Teach

从依赖最新事实却硬答的真实失败切入

讲清 evidence routing、freshness 和 provenance 的系统责任

要求用户把自己的一个问题改写成检索链

User Outcomes

区分 retrieval 和单纯加长上下文的差别

会把真实问题设计成查询、筛选、注入、引用四步链路

能判断一次错误到底是缺证据、证据过时还是检索噪声过大

Validation

多题小测

检索链设计练习

反思重构

Deliverables

1 份 retrieval chain 草案

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会第一次感觉自己在掌控证据,而不是盲信模型

能直接改善知识库、文档问答和内部搜索场景

打开这节课
premium已上线

Evaluation · 知识课 · 32 分钟

Guardrails 不是一句提醒:Prompt Injection、权限边界与风险控制

让用户真正学会把安全做成边界、确认和止损机制,而不是继续往 prompt 里加警告。

How We Teach

从真实注入或越权风险场景切入

讲清 trust boundary、action boundary 和 graceful downgrade

要求用户对自己的 workflow 做 guardrail 审计

User Outcomes

知道不可信文本、系统规则和工具动作应该如何分层

能识别 prompt injection、prompt leak 和越权执行路径

能为一个真实 workflow 设计输入隔离、动作确认和降级方案

Validation

多题小测

guardrail 审计练习

反思重构

Deliverables

1 份 trust boundary 草图

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会明显感觉自己不再只会“求模型听话”

对 agent、知识库和带工具系统的实战价值很高

打开这节课
premium已上线

Evaluation · 知识课 · 30 分钟

别再猜 Prompt:可观测性与调试,让失败可重放、可定位、可修复

让用户掌握如何记录、重放和标注坏 case,真正知道系统到底坏在哪一层。

How We Teach

从一次无法复现的线上失败切入

讲清 trace、replay 和 failure label 各自的作用

要求用户把自己的一个坏 case 改写成可重放调试记录

User Outcomes

知道最小 trace 应该记录哪些信息

会先重放失败,再决定该修 prompt、检索、工具还是编排

会用 failure label 把坏 case 变成后续可评估、可排期的资产

Validation

多题小测

trace 模板设计练习

反思重构

Deliverables

1 份最小 trace 模板

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会明显感觉自己从“猜问题”转向“定位问题”

对真实 agent 和工作流排错帮助非常直接

打开这节课
premium已上线

Evaluation · 知识课 · 31 分钟

别再说“看起来更好了”:Rubric 评分与可复查评估

教会用户把含糊质量判断改写成维度、锚点、阈值和 grader 规则,让第二个操作者也能复查。

How We Teach

从一个大家都说“感觉更好”却没人能清楚打分的 workflow 切入

把评估拆成维度、锚点和覆盖平均分的规则

要求用户产出一份别人也能实际应用的 rubric

User Outcomes

把一个抽象质量目标改写成带维度和评分锚点的 rubric

保留维度分和 hard-stop 规则,而不是只看总分

用 rubric 证据决定先修哪一层

Validation

多题小测

rubric 草稿

反思改写

Deliverables

1 份 scoring rubric

1 份 grader note

1 份多题小测结果

Motivation Hooks

用户会停止把质量当成口味

这节课会直接把 eval 概念接到上线和回滚决策上

打开这节课
premium已上线

Evaluation · 知识课 · 30 分钟

别只盯模型单价:延迟与成本控制,真正决定能不能上线

让用户建立真实的性能与成本判断力,知道先消灭系统浪费,再谈模型价格。

How We Teach

从演示能跑、上线就贵又慢的真实问题切入

讲清关键路径、缓存、批处理、异步和降级策略

要求用户对自己的一个 workflow 做成本与延迟审计

User Outcomes

区分用户感知延迟和系统总延迟

能找出请求冗余、上下文膨胀、输出过长和缺缓存这些真实浪费

能为一个 workflow 写出最小 latency/cost 审计草案

Validation

多题小测

latency/cost 审计练习

反思重构

Deliverables

1 份 latency/cost 审计草案

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会第一次看清很多浪费根本不在模型单价

这节课能直接帮助真实产品降本增效

打开这节课
premium已上线

Evaluation · 知识课 · 32 分钟

模型路由与 Unsupported Answer Policy

让用户学会按任务价值、风险、证据需求和预算来分流请求,并保留澄清、检索、拒答和升级处理的权利。

How We Teach

从所有请求都走一条回答路径带来的成本和可靠性损害切入

把 routing 拆成任务分类、阈值和 fallback 逻辑

要求用户写出一份显式 unsupported-answer policy

User Outcomes

为不同任务类别设计 routing matrix,而不是默认所有请求都走同一条模型路径

定义系统什么时候该直接回答,什么时候其实不该回答

用 eval、abstention 表现、延迟和成本来判断 routing policy

Validation

多题小测

routing policy 草案

反思重构

Deliverables

1 份 routing matrix 草案

1 张知识卡

1 次多题小测结果

Motivation Hooks

用户会停止把“总能答”误当成强产品

这节课会立刻提升客服机器人、copilot 和内部工具的可靠性

打开这节课
premium已上线

Evaluation · 知识课 · 20 分钟

真正能改进系统的 Eval 闭环

把“感觉好像更好了”升级成可验证的系统改进。

How We Teach

从真实失败样本出发

给出最小 eval loop 模板

要求用户把失败案例变成评估样本

User Outcomes

能收集真实失败样本

能定义最小评估集

能把评估结果绑定到上线或回滚决策

Validation

即时小测

失败样本收集任务

评估草案

Deliverables

1 份最小评估集草案

1 张知识卡

1 次小测结果

Motivation Hooks

第一次看清为什么上线经常回归

评估闭环会带来掌控感

打开这节课
premium已上线

Evaluation · 知识课 · 30 分钟

系统什么时候必须停下:人工升级与 Review Queue

教会用户定义 hard stop、review queue owner 和 handoff packet,让系统在 unsupported answer 或危险动作前停下来。

How We Teach

从一条因为不愿升级而过度回答的 workflow 切入

把问题拆成 hard-stop、owner、SLA 和 handoff 证据

要求用户真的设计一条 review queue,而不是喊 human-in-the-loop 口号

User Outcomes

为风险、权限、证据和政策敏感请求定义 escalation trigger

设计人工 reviewer 可以直接接手的 handoff packet

把升级给人当成质量路径,而不是产品丢脸

Validation

多题小测

escalation policy 草稿

反思改写

Deliverables

1 份 escalation policy

1 份 handoff packet

1 份多题小测结果

Motivation Hooks

用户会从“必须回答”转向“必须判断该不该回答”

这节课会立刻提升客服、审批流和行动型 workflow 的信任度

打开这节课
premium已上线

Delivery · 跟做课 · 55 分钟

Creem 订阅链路实战接入

跑通 Checkout、Webhook、Customer Portal 和站内权限联动。

How We Teach

先在测试环境完成商品和 webhook 配置

再对照应用里的 billing 逻辑

最后用权限和数据库状态验收

User Outcomes

创建测试商品并正确写入环境变量

跑通 Creem Checkout、Portal 和 webhook

知道为什么不能只看 success_url

Validation

支付链路截图

Webhook 自测

订阅表状态核对

权限开关验证

Deliverables

1 条完整订阅链路

1 份 billing 自测清单

1 段 webhook 排错复盘

Motivation Hooks

支付成功真正变成权限解锁

支付、权限、产品能力第一次被串起来

打开这节课
premium已上线

Delivery · 跟做课 · 45-60 分钟

OpenClaw 从零配置到跑通

让用户不靠猜测,跟着步骤把 OpenClaw 配起来并验证成功。

How We Teach

课前明确交付物和环境要求

每一步都用 checklist 推进

每一步都有成功标准和失败排查提示

User Outcomes

完成环境准备、配置填充和启动验证

理解关键配置项的作用

遇到失败时知道优先检查什么

Validation

步骤 checklist 完成

运行截图

最小排错复盘

Deliverables

1 个成功运行的 OpenClaw 环境

1 组截图证明

1 份排错笔记

Motivation Hooks

一节课内就能看到工具跑起来

反馈强,不再只是“看懂了”

打开这节课
premium已上线

Delivery · 跟做课 · 50 分钟

Supabase Auth 实战接入

完成从数据库、Auth 到页面登录状态联动的整条链路。

How We Teach

先展示最终状态

再接表、环境变量和 helper

最后完成页面联动

User Outcomes

创建用户表和 RLS 规则

跑通登录、退出、会话刷新

知道 auth 为什么不能只做前端页面

Validation

运行截图

Auth 链路自测

关键配置复述

Deliverables

1 套可用登录系统

1 份自测 checklist

Motivation Hooks

页面联动很直观

成果可直接复用到自己的项目

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

Freshness Governance 审计:别让旧文档冒充最新事实

审计一条 retrieval workflow 的 freshness class、owner、metadata 和 stale-content 处理方式,避免系统悄悄把旧真相当成新真相上线。

How We Teach

从一条看似 grounded 但容易吃到旧证据的 workflow 切入

围绕 source class、metadata、owner 和 fallback 行为审计

要求交付物可以直接用于上线前 review

User Outcomes

产出一份 freshness register,给不同来源写清 class 和过期阈值

定义文档的 version、owner 和 approval status 规则

建立 stale-content triage 路径,明确什么时候澄清、刷新或升级处理

Validation

freshness register

治理审查

stale-content triage 审查

审计复盘

Deliverables

1 份 freshness register

1 份 refresh policy

1 份 stale-content triage 表

Motivation Hooks

用户会停止把 retrieval 当成等于可信知识

这节审计会立刻改善政策机器人、内部搜索和支持助手

打开这节课
premium已上线

Delivery · 验收课 · 40 分钟

Guardrail 审计实战:注入、确认与止损设计

审计一条真实 workflow,把模糊风险变成 trust boundary、动作确认矩阵和止损方案。

How We Teach

先画 threat model 和边界,再谈 prompt 写法

用审计梯子和红队样例驱动,而不是只讲原则

要求提交可复用的交付物,而不是停在讨论

User Outcomes

把 trusted / untrusted 内容分开,而不是把所有文本都当成一样

找出哪些工具动作会被风险输入越界触发

产出一份上线前能真正复用的 guardrail 审计报告

Validation

审计清单

交付物审查

红队证据

复盘答辩

Deliverables

1 张 trust boundary 图

1 份动作确认矩阵

1 份 guardrail 审计报告

Motivation Hooks

用户会从“希望模型听话”转到“主动设计止损”

这节课会带来很强的掌控感

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

Human Review Queue 实战:安全升级路径设计

把一条 workflow 审成真正的升级路径,写清 hard stop、queue owner、SLA 和 handoff packet,让高风险 case 干净地停下并交给人。

How We Teach

从一条现在还在“该停不停”的 workflow 切入

围绕 escalation trigger、owner、SLA 和 packet 设计来审计

要求交付物让升级路径可审计,而不是停留在口头承诺

User Outcomes

定义强制升级而不是 unsupported answer 的 hard-stop trigger

分配 queue owner 和 review expectation

产出一份保留关键证据的 handoff packet 模板

Validation

escalation policy 审查

queue 审查

handoff packet 审查

审计复盘

Deliverables

1 份 escalation policy

1 份 review queue scorecard

1 份 handoff packet 模板

Motivation Hooks

用户会停止把升级给人当成产品失败

这节实战会直接提升支持、审批和行动链路的信任

打开这节课
premium已上线

Delivery · 验收课 · 40 分钟

Latency / Cost 审计实战

在换模型之前,先审清楚请求浪费、上下文膨胀、缓存机会、异步空间和预算权衡。

How We Teach

先建立 baseline,再谈优化

先查系统浪费,再谈模型切换

要求用户带走可直接复用回产品里的报告

User Outcomes

区分用户感知延迟和后台总耗时

抓出请求数、prompt 大小、输出长度和检索体量上的浪费

产出一份有优先级的优化清单和性能预算报告

Validation

审计清单

交付物审查

baseline 证据

优化复盘

Deliverables

1 份请求库存表

1 份性能预算报告

1 份优化优先级清单

Motivation Hooks

用户常常会第一次发现真正最贵最慢的不在模型价格

这节课能直接转成真实产品的降本增效

打开这节课
premium已上线

Delivery · 验收课 · 40 分钟

Retrieval / Grounding 审计实战

审计一个依赖证据的 workflow,把检索范围、时效性、来源链和无法支持时的处理方式讲清楚。

How We Teach

从一个本该取证却直接回答的失败案例切入

围绕 evidence routing、freshness 和 citation 逐层审计

要求提交一份可用于上线评审的报告

User Outcomes

画出系统什么时候该检索、引用、拒答或升级处理

在上线前发现证据过时、检索噪声和来源缺失

产出一份真实 workflow 可复用的 retrieval 审计报告和证据链清单

Validation

证据链清单

交付物审查

引用证明

审计复盘

Deliverables

1 份 retrieval 审计报告

1 份证据链检查清单

1 份无法支持时的处理策略

Motivation Hooks

用户会不再把 retrieval 当成模糊的 RAG 概念

这节课会立刻提升文档问答和内部知识系统的可靠性

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

Routing Policy 审计:模型选择与 Unsupported Answers

审计一个真实 workflow 的任务分类、模型路径、fallback 阈值和 unsupported-answer 行为,在上线前把政策写清楚。

How We Teach

从一个现在还在过度回答或过度花钱的 workflow 切入

围绕任务分类、routing 阈值和 unsupported-answer 处理来审计

要求交付可被第二个操作者审核和执行的 policy 文档

User Outcomes

定义一个符合任务价值、风险、证据需求和预算的 routing matrix

写出覆盖澄清、检索、拒答和升级处理的 unsupported-answer policy

产出一份 fallback ladder,而不是让系统在不确定时临场发挥

Validation

routing matrix

policy 审查

fallback ladder 审查

审计复盘

Deliverables

1 份 model-routing matrix

1 份 unsupported-answer policy

1 份 fallback ladder

Motivation Hooks

用户会从 prompt 乐观主义转向操作政策

这节审计会直接改善真实产品的成本、信任和失败处理

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

Rubric Grading 实战:把 AI 质量变成可复查证据

把一条 workflow 做成真正可评分的 review system,写出维度、锚点、hard-stop 和 grader 说明,让第二个 reviewer 也能复用。

How We Teach

从一条现在还靠感觉评质量的 workflow 切入

围绕维度、锚点、hard stop 和 calibration 做审计

要求交付物让第二个操作者也能复查质量

User Outcomes

为真实 workflow 写出一份 rubric 和评分锚点

定义 grader 规则和 hard-fail 条件,而不是只看总体印象

留下 calibration sheet,让评分分歧真正可见

Validation

rubric 审查

grader spec 审查

calibration 审查

审计复盘

Deliverables

1 份 scoring rubric

1 份 grader spec

1 份 calibration sheet

Motivation Hooks

用户会停止用感觉争论质量

这节实战会直接强化上线、回归和 trace review

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

Workflow Routing 实战:工具边界与 Operator Skills

审计一个会调用工具的 workflow,把 routing 顺序、确认关卡、恢复步骤和该沉淀成 skill 的 operator 逻辑讲清楚。

How We Teach

从一个看起来很 agent、但其实很脆弱的 workflow 切入

围绕 routing 顺序、工具边界和恢复顺序来做审计

要求交付一份不依赖某个熟练操作者也能复用的成果

User Outcomes

把 workflow 画成明确的澄清、取证、执行、校验和交接阶段

定义哪些动作需要证据、哪些需要确认、哪些绝不能自动运行

产出一份 routing 表、一份工具边界清单和一份 operator skill brief

Validation

routing 表

清单审查

skill brief 审查

审计复盘

Deliverables

1 份 workflow routing 表

1 份工具边界检查清单

1 份 operator skill brief

Motivation Hooks

用户会从 agent 戏法转向操作控制

这些交付物会立刻改善团队的自动化和工具流程

打开这节课
premium已上线

Delivery · 验收课 · 35 分钟

输出契约实战:可验证接口设计

把一个模糊 AI 步骤改造成有 schema、失败状态和下游验收规则的输出契约。

How We Teach

从下游集成出错切入,而不是继续讲 prompt 技巧

按 framing、schema、验收检查三层契约梯子推进

要求提交可被第二个操作者复核的规范和清单

User Outcomes

把自由文本推理和下游必须信任的数据结果分开

为一个真实任务定义字段、枚举、空值行为和显性失败路径

产出一份工程或运营都能直接复用的输出契约说明

Validation

Schema 清单

交付物审查

失败路径审查

复盘答辩

Deliverables

1 份输出契约说明

1 份 schema 审查清单

1 份失败状态策略

Motivation Hooks

用户会明显感到自己从“写提示词”转向“设计接口”

这份交付物能立刻复用到真实产品和自动化流程

打开这节课
premium已上线

Delivery · 项目课 · 2-4 小时

做一个可登录、可订阅、可学习的 AI 产品

把前面的概念课和技能课整合成一个完整交付物。

How We Teach

提供项目范围和验收标准

按内容、Auth、订阅、数据、可信度层分阶段推进

要求提交最终 demo 和复盘

User Outcomes

独立搭出完整产品闭环

解释自己的架构选择

展示真实可运行成果

Validation

项目验收

交付物审查

复盘答辩

Deliverables

1 个在线或本地可运行 demo

1 份架构说明

1 份项目复盘

Motivation Hooks

用户最终拿到的是作品

最容易形成成就感和传播价值

打开这节课

Search Cluster

教学蓝图也要有搜索入口

搜索页不应该只是流量钩子,而应该把用户从搜索词直接带进一条能学会、能交付的路径。

Prompt Engineering Course

Prompt Engineering 课程,不该只教你写更长的 prompt

这页面向真正搜索“prompt engineering course”的用户,但 DepthPilot 不把它做成提示词花活合集,而是把 prompt 放回系统设计、上下文架构和评估闭环里。

打开路径

AI Workflow Course

AI Workflow 课程,目标不是会聊,而是会搭可交付流程

如果用户搜的是“AI workflow course”,他真正需要的不是再看一次模型介绍,而是学会把 AI 接进真实工作流、工具链、权限和交付标准。

打开路径

OpenClaw Tutorial

OpenClaw 教程,不只是装起来,而是跑通、排错、沉淀成 skills

这个入口页直接对齐 OpenClaw tutorial 搜索意图,帮用户先理解自己会拿到什么,再进入正式跟做课、skills 页和项目路径。

打开路径

AI Eval Checklist

AI Eval Checklist,用来判断你的系统是不是真的变好了

搜 AI eval checklist 的用户通常不缺观点,缺的是一份能执行的核对清单。这个页面把 eval 的最小判断框架直接收成清单式入口。

打开路径

Human in the Loop AI

Human in the loop 不是兜底口号,而是升级路径、review queue 和 handoff packet 设计

很多人搜索 human in the loop AI,只是想知道“要不要人来审核”。DepthPilot 关心的是更实战的问题:什么时候必须停下、谁来接手、接手时系统要交什么证据。

打开路径

RAG Freshness Governance

RAG 不是检索到就算 grounded,真正关键是 freshness governance

很多团队把 RAG 做成“能搜到一些文档”,然后就默认系统有了可靠知识。DepthPilot 关心的是:这些文档谁负责、多久过期、版本怎么治理、过时了怎么办。

打开路径

LLM Evaluation Rubric

LLM evaluation rubric,不是打分表花架子,而是修复顺序和上线判断

很多人在搜索 LLM evaluation rubric 时,只是想找一张模板。DepthPilot 更进一步:我们把 rubric 变成维度、锚点、hard-stop 和 grader 规则,帮助用户真正决定系统哪里坏了、先修哪里。

打开路径

接下来最重要的内容动作

优先补齐 seeded 节点对应的知识课和跟做课,让每条路径都能从认知走到交付。不要先追求课量,而是先追求路径闭环。

AI 教学蓝图:知识课、跟做课、项目课与可交付学习链路 | DepthPilot AI