YYMuse

上下文窗口

Context Window
大语言模型

模型单次处理时能看到的最大 Token 数量,决定了能处理的文档长度和多轮对话历史深度。

# LLM # Token

上下文窗口

上下文窗口是 LLM 的工作记忆边界——超出范围的内容模型无法直接访问。

典型大小: - 早期 GPT-3:4K tokens - 当前主流:128K tokens - Claude 3.5/4:200K tokens - Gemini 2.0:1M tokens

换算: 1K tokens ≈ 750 个英文单词 ≈ 500 个中文汉字

注意: 窗口越大不代表效果越好,超长上下文中间部分常被模型忽略(Lost in the Middle 问题)。

← 返回词汇列表