AI 基础入门
AI 幻觉——为什么 LLM 会编造内容
AI 幻觉是指语言模型生成听起来合理但事实上不正确的信息。理解为什么会发生这种情况有助于你更安全地使用 AI 工具。
TL;DR: AI 幻觉是指语言模型生成听起来合理但事实上不正确的信息。理解为什么会发生这种情况有助于你更安全地使用 AI 工具。
什么是幻觉?
当 LLM 自信地陈述虚假事实——发明引用、错误日期、虚构事件或错误代码——这就是幻觉。这个名称来自心理学:感知到不存在的东西。LLM 不会"撒谎";它们生成统计上合理的文本延续,即使这些延续在事实上是错误的。
hallucinationconfabulationfabricationfactual accuracy
为什么会发生(技术层面)
LLM 是下一个 token 的预测器。它们从训练数据中学习模式并生成统计上最可能的下一个词。没有内置的"真相检查器"——模型没有经过验证的事实内部数据库,只有模式。当模式暗示一个从未在训练数据中出现的合理答案时,就会发生高置信度幻觉。
next-token predictionstatistical patternstraining dataconfidence
常见幻觉类型
事实错误(错误的日期、统计数据)。发明的引用(听起来真实但虚假的学术论文)。代码幻觉(看起来合理但实际上有问题的代码)。将过时信息陈述为当前信息。人物混淆(混淆不同真实人物的细节)。
如何降低幻觉风险
使用基础锚定:附加真实文档(RAG)或网络搜索,让模型引用来源。要求引用并验证它们。对事实性任务使用较低的温度设置。提示模型在不确定时说"我不知道"。使用 Perplexity.ai 进行研究(它显示来源)。不要在没有核实的情况下将 LLM 用于医疗/法律/财务决策。