Skip to main content
AI 基础入门

上下文窗口详解——LLM 能"记住"什么

上下文窗口是 LLM 一次能看到的总文本量——包括你的输入和它的输出。理解它有助于避免"遗忘"问题,更有效地使用 AI 工具。

TL;DR: 上下文窗口是 LLM 一次能看到的总文本量——包括你的输入和它的输出。理解它有助于避免"遗忘"问题,更有效地使用 AI 工具。

什么是上下文窗口?

把上下文窗口想象成 AI 的工作记忆。模型在对话中能"看到"的一切——你的消息、它的回复、系统指令——都必须在这个以 token 为单位的窗口内。一旦超出,模型就会失去对早期内容的访问。

context windowtokensworking memorycontext limit