OpenAI
Why language models hallucinate
说明为什么错误地奖励“猜”会导致高自信错答,支持课程中“不确定时先澄清或承认不知道”的原则。
打开原始资料Mindset
Free真正会驾驭 AI 的人,先知道什么时候该让模型回答,什么时候必须让它澄清、检索、调用工具或停下来。
Trust Layer
内容不是从碎片信息拼出来的,而是按“官方资料定义 + 产品实践抽象 + 可执行练习”三层整理。
Learning Objectives
区分“回答得像”与“真的知道、真的有资格回答”之间的差别
学会把任务分成直接回答、先澄清、先检索、先调工具、拒答/升级五种处理方式
把一次“模型很自信但答错了”的经历改写成可执行的工作流边界
Practice Task
从你最近 5 个真实 AI 请求里,给每个请求打上标签:直接回答、先澄清、先检索、先调工具、拒答/升级。然后挑 1 个最容易出现“自信但错误”的任务,写出新的处理梯子。
Editorial Review
已审核 · DepthPilot Editorial · 2026-03-09
课程边界判断基于官方资料中对幻觉、不确定性与澄清行为的推荐做法。
课程把这些原则翻译成可执行的五段式决策梯子,方便用户迁移到真实工作流。
本课不鼓励把“永远回答”当成能力,而强调什么时候该停、该问、该查、该调工具。
知识链路
这节课不是孤立文章,而是知识网络里的一个节点。先知道它连接了哪些底层能力,再决定下一步该补哪一层。
打开完整知识网络学会的证据
你能把一个真实任务正确归类为直接回答、先澄清、先检索、先调工具或拒答/升级。
你能指出一次“模型很自信但答错了”的问题,真正缺的是证据、状态还是权限,而不是单纯提示词不够长。
最容易掉进去的误区
把“回答得很完整”误当成“系统已经足够可靠”。
明明任务依赖最新事实或真实系统状态,却还让模型直接硬答。
大模型擅长生成看起来合理、语气稳定的答案,但这不等于它真的掌握了最新事实、拿到了当前系统状态,或者具备执行动作的资格。很多人被模型牵着鼻子走,不是因为模型太强,而是因为把“说得像”误当成“真的知道”。
有些问题适合直接回答,因为它们依赖通用模式和低风险判断;有些问题缺少关键上下文,应该先澄清;有些问题依赖最新事实和来源,应该先检索;有些问题会改动系统状态,应该先调工具;还有些问题风险太高,应该拒答或升级给人类。能力边界不是一个抽象概念,而是一套任务分流规则。
当问题信息不足、范围模糊或事实需要最新证据时,成熟系统不该奖励模型硬猜。更可靠的策略是让模型先问澄清问题、明确自己不知道、或者明确说明需要外部证据。这会让回答短期看起来没那么“全能”,但长期会显著降低错答和误导。
你可以把模型输出前的判断分成五步:低风险且信息充分时直接回答;信息缺口明显时先澄清;涉及事实与来源时先检索并引用;涉及执行动作时先调用工具并读取结果;风险过高或权限不足时拒答或升级。这样你训练的就不是“更会说”,而是“更会判断什么时候该说、什么时候不该说”。
用一组判断题验证你是否真的理解了核心边界,而不是只记住了表面说法。
问题 1
用户问了一个缺少关键上下文的问题,此时最成熟的系统行为是什么?
问题 2
下面哪类问题最不应该只依赖模型记忆直接回答?
问题 3
哪种设计最能减少“模型自信但错误”的情况?
全部答对后会自动记入本地学习进度。
反思不是附属品,而是把知识变成能力的关键步骤。
在你的真实工作流里,哪类任务最容易被模型“说得很像对的”骗过?如果你要重做这条链路,你会把它改成先澄清、先检索、先调工具,还是直接拒答/升级?为什么?
内容保存在浏览器本地。
把当前课程压缩成一个可复用的工作记忆单元。
Concept
Model Capability Boundary
Explanation
判断模型什么时候可以直接回答,什么时候必须澄清、检索、调用工具或停下来的系统边界。
Practical Use
用于减少幻觉、自信错答和越权行为,把 AI 从“会说”升级成“会按边界工作”。
收藏后可在本地知识库页面回看。