Docs: update zh-CN translations and pipeline

What:
- update zh-CN glossary, TM, and translator prompt
- regenerate zh-CN docs and apply targeted fixes
- add zh-CN AGENTS pipeline guidance

Why:
- address terminology/spacing feedback from #6995

Tests:
- pnpm build && pnpm check && pnpm test
This commit is contained in:
Josh Palmer
2026-02-03 13:23:00 -08:00
parent 9f03791aa9
commit a3ec2d0734
228 changed files with 10651 additions and 10475 deletions

View File

@@ -1,11 +1,11 @@
---
read_when:
- 解释 token 使用量、费用或上下文窗口时
- 解释 token 使用量、成本或上下文窗口时
- 调试上下文增长或压缩行为时
summary: OpenClaw 如何构建提示上下文以及报告 token 使用量和费用
title: Token 使用与费用
summary: OpenClaw 如何构建提示上下文报告 token 使用量 + 成本
title: Token 使用与成本
x-i18n:
generated_at: "2026-02-01T21:39:26Z"
generated_at: "2026-02-03T07:54:57Z"
model: claude-opus-4-5
provider: pi
source_hash: aee417119851db9e36890487517ed9602d214849e412127e7f534ebec5c9e105
@@ -13,74 +13,88 @@ x-i18n:
workflow: 15
---
# Token 使用与费用
# Token 使用与成本
OpenClaw 跟踪的是 **token**,而字符。Token 模型而异,但大多数 OpenAI 风格的模型对英文文本平均约 4 个字符对应 1 个 token。
OpenClaw 跟踪的是 **token**,而不是字符。Token 模型特定的,但大多数
OpenAI 风格的模型对于英文文本平均约 4 个字符为一个 token。
## 系统提示的构建方式
## 系统提示词如何构建
OpenClaw 在每次运行时组装自己的系统提示。它包括:
OpenClaw 在每次运行时组装自己的系统提示。它包括:
- 工具列表 + 简短描述
- Skills 列表(仅元数据;指令通过 `read` 按需加载)
- 自更新指令
- 工作区 + 引导文件(`AGENTS.md``SOUL.md``TOOLS.md``IDENTITY.md``USER.md``HEARTBEAT.md``BOOTSTRAP.md`仅新会话时加载))。大文件会被 `agents.defaults.bootstrapMaxChars`(默认20000截断。
-更新指令
- 工作区 + 引导文件(`AGENTS.md``SOUL.md``TOOLS.md``IDENTITY.md``USER.md``HEARTBEAT.md``BOOTSTRAP.md`新建时))。大文件会被 `agents.defaults.bootstrapMaxChars`默认20000截断。
- 时间UTC + 用户时区)
- 回复标签 + 心跳行为
- 运行时元数据(主机/操作系统/模型/思考)
完整分解请参阅[系统提示](/concepts/system-prompt)。
完整分解参见[系统提示](/concepts/system-prompt)。
## 上下文窗口中计入的内容
## 什么算入上下文窗口
模型接收的所有内容都计入上下文限制:
- 系统提示(上面列出的所有部分)
- 系统提示(上面列出的所有部分)
- 对话历史(用户 + 助手消息)
- 工具调用和工具结果
- 附件/转录(图片、音频、文件)
- 压缩摘要和剪产物
- 提供商包装或安全头(不可见,但仍然计入
- 压缩摘要和剪产物
- 提供商包装或安全头(不可见,但仍计数
如需了解实际分解(注入文件、工具、Skills 和系统提示大小),使用 `/context list``/context detail`。参见[上下文](/concepts/context)。
有关实际分解(每个注入文件、工具、Skills 和系统提示大小),使用 `/context list``/context detail`。参见[上下文](/concepts/context)。
## 如何查看当前 token 使用量
在聊天中使用以下命令
在聊天中使用:
- `/status`**富表情状态卡片**,显示会话模型、上下文使用量、上次响应的输入/输出 token 数以及**估算费用**(仅 API 密钥模式)。
- `/usage off|tokens|full` → 在每条回复后附加**逐条响应使用量页脚**。
- 按会话持久化(存储为 `responseUsage`
- OAuth 认证下**隐藏费用**(仅显示 token 数)。
- `/usage cost` → 显示来自 OpenClaw 会话日志的本地费用摘要
- `/status`带有会话模型、上下文使用量、
最后响应输入/输出 token 和**预估成本**(仅 API 密钥)的 **emoji 丰富的状态卡片**
- `/usage off|tokens|full` → 在每个回复后附加**每响应使用量页脚**
- 每会话持久化(存储为 `responseUsage`)。
- OAuth 认证**隐藏成本**(仅 token
- `/usage cost` → 从 OpenClaw 会话日志显示本地成本摘要。
其他界面:
- **TUI/Web TUI** 支持 `/status` + `/usage`
- **CLI** `openclaw status --usage``openclaw channels list` 显示提供商配额窗口(非逐条响应费用)。
- **CLI** `openclaw status --usage``openclaw channels list` 显示
提供商配额窗口(不是每响应成本)。
## 费用估算(何时显示)
## 成本估算(显示
费用根据你的模型定价配置进行估算:
成本从你的模型定价配置估算:
```
models.providers.<provider>.models[].cost
```
这些是 `input``output``cacheRead` `cacheWrite` 的**每百万 token 美元价格**。如果缺少定价信息OpenClaw 仅显示 token 数。OAuth token 永远不显示美元费用。
这些是 `input``output``cacheRead`
`cacheWrite` 的**每 1M token 美元**。如果缺少定价OpenClaw 仅显示 token。OAuth 令牌
永远不显示美元成本。
## 缓存 TTL 与裁剪影响
## 缓存 TTL 和修剪影响
提供商提示缓存仅在缓存 TTL 窗口内有效。OpenClaw 可以选择性地运行**缓存 TTL 裁剪**:在缓存 TTL 过期后裁剪会话,然后重置缓存窗口,使后续请求可以复用新缓存的上下文,而不是重新缓存完整历史。这可以在会话空闲超过 TTL 后降低缓存写入费用。
提供商提示缓存仅在缓存 TTL 窗口内适用。OpenClaw 可以
选择性地运行**缓存 TTL 修剪**:它在缓存 TTL
过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用
新缓存的上下文,而不是重新缓存完整历史。这在会话空闲超过 TTL 时
可以降低缓存写入成本。
在 [Gateway网关配置](/gateway/configuration)中进行配置,并在[会话裁剪](/concepts/session-pruning)中查看行为详情。
在 [Gateway 网关配置](/gateway/configuration) 中配置,并在
[会话修剪](/concepts/session-pruning) 中查看行为详情。
心跳可以在空闲间隙中保持缓存**热**。如果你的模型缓存 TTL`1h`,将心跳间隔设置为略短于此的值(例如 `55m`),可以避免重新缓存完整提示,从而降低缓存写入费用。
心跳可以在空闲间隙中保持缓存**热**。如果你的模型缓存 TTL
`1h`,将心跳间隔设置为略低于此(例如 `55m`)可以避免
重新缓存完整提示,从而降低缓存写入成本。
Anthropic API 定价,缓存读取比输入 token 便宜得多,而缓存写入则按更高的倍率计费。请参阅 Anthropic 的提示缓存定价了解最新费率和 TTL 倍率:
关 Anthropic API 定价,缓存读取比输入
token 便宜得多,而缓存写入以更高的倍率计费。参见 Anthropic 的
提示缓存定价了解最新费率和 TTL 倍率:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
### 示例:用心跳保持 1 小时缓存热
### 示例:用心跳保持 1 小时缓存热
```yaml
agents:
@@ -95,11 +109,11 @@ agents:
every: "55m"
```
## 降低 token 压力的技巧
## 减少 token 压力的技巧
- 使用 `/compact`摘要长会话。
- 在工作流中剪大工具输出。
- 保持 Skills 描述简短(Skills 列表会注入到提示中)。
- 对于冗长的探索性工作,优先选择较小的模型。
- 使用 `/compact`总结长会话。
-你的工作流中剪大工具输出。
- 保持 skill 描述简短(skill 列表会注入到提示中)。
- 对于冗长的探索性工作,优先使用较小的模型。
Skills 列表开销的精确计算公式请参阅[Skills](/tools/skills)。
精确的 skill 列表开销公式参见 [Skills](/tools/skills)。