上下文窗口
Context Window模型单次处理时能看到的最大 Token 数量,决定了能处理的文档长度和多轮对话历史深度。
# LLM
# Token
上下文窗口
上下文窗口是 LLM 的工作记忆边界——超出范围的内容模型无法直接访问。
典型大小: - 早期 GPT-3:4K tokens - 当前主流:128K tokens - Claude 3.5/4:200K tokens - Gemini 2.0:1M tokens
换算: 1K tokens ≈ 750 个英文单词 ≈ 500 个中文汉字
注意: 窗口越大不代表效果越好,超长上下文中间部分常被模型忽略(Lost in the Middle 问题)。