文档/Agent
上下文管理
上下文窗口是 Agent 的工作记忆。它决定了 Agent 在一次推理中能"看到"多少信息。
每个 AI 模型都有上下文长度限制——Claude 支持最长 200K tokens,GPT-4o 支持 128K。当对话变得很长时,早期的消息会超出这个窗口。XClaw 通过消息压缩来解决这个问题:它会自动将早期对话浓缩为更短的摘要,保留关键决策和上下文,同时释放 token 空间给新的交互。
上下文还来自其他来源。工作区的 Skills 指令、记忆系统中的持久化知识、当前会话中 Agent 读取过的文件内容,都会被注入上下文。XClaw 的上下文引擎负责编排这些来源,确保最相关的信息优先占据有限的 token 预算。
@mentions 机制让你可以在对话中精确引用文件和资源。Agent 会理解这些引用并将对应内容拉入上下文,避免你手动粘贴大段代码。
对话分支是另一个有用的机制。当你想探索 Agent 的不同推理路径时,可以从对话的任意节点分叉出一个新分支,而不会丢失原来的进度。
操作指引
上下文管理大部分是自动的——XClaw 会替你处理消息压缩和 token 预算。不过你可以主动控制哪些内容进入上下文。
在输入框中输入 @ 符号,会弹出一个文件和资源选择器。选择一个文件后,它的内容会被直接注入到当前对话的上下文中,Agent 可以立即使用。这比手动复制粘贴代码要方便得多。
想探索不同的解决方案?在对话中某条消息旁边,你会看到一个"分支"按钮。点击它可以从这个节点分叉出一条新的对话路径,原来的对话完好保留。你可以在不同分支之间自由切换比较。
如果你注意到 Agent 的回复质量下降(通常发生在非常长的对话中),可以考虑开一个新会话,用 @mention 把关键文件引入,这样 Agent 会有一个干净的上下文重新开始。