/* Word 特定样式 */
body {
font-family: "Microsoft YaHei", "微软雅黑", "SimSun", "宋体", Arial, sans-serif;
line-height: 1.8;
max-width: 800px;
margin: 40px auto;
padding: 20px;
background: white;
}
h1 {
font-size: 22pt;
font-weight: bold;
color: #2c3e50;
margin: 24pt 0 16pt;
border-bottom: 2px solid #3498db;
padding-bottom: 8pt;
}
h2 {
font-size: 18pt;
font-weight: bold;
color: #34495e;
margin: 20pt 0 12pt;
}
h3 {
font-size: 16pt;
font-weight: bold;
color: #34495e;
margin: 16pt 0 10pt;
}
h4 {
font-size: 14pt;
font-weight: bold;
color: #7f8c8d;
margin: 14pt 0 8pt;
}
p {
font-size: 11pt;
margin: 8pt 0;
text-align: justify;
}
strong, b {
font-weight: bold;
color: #2c3e50;
}
em, i {
font-style: italic;
}
code {
font-family: "Consolas", "Courier New", monospace;
background: #f8f9fa;
padding: 2px 6px;
border-radius: 3px;
font-size: 10pt;
color: #e74c3c;
}
pre {
background: #f8f9fa;
border: 1px solid #dee2e6;
border-radius: 5px;
padding: 12pt;
font-family: "Consolas", "Courier New", monospace;
font-size: 9pt;
overflow-x: auto;
margin: 12pt 0;
}
pre code {
background: none;
padding: 0;
color: inherit;
}
blockquote {
border-left: 4px solid #3498db;
margin: 12pt 0;
padding: 8pt 16pt;
background: #f8f9fa;
color: #555;
}
ul, ol {
margin: 8pt 0;
padding-left: 24pt;
}
li {
margin: 4pt 0;
font-size: 11pt;
}
img {
max-width: 500px;
width: 500px;
height: auto;
display: block;
margin: 16pt auto;
border-radius: 4px;
}
hr {
border: none;
border-top: 2px solid #ecf0f1;
margin: 24pt 0;
}
a {
color: #3498db;
text-decoration: underline;
}
table {
border-collapse: collapse;
width: 100%;
margin: 12pt 0;
}
th, td {
border: 1px solid #ddd;
padding: 8pt 12pt;
font-size: 11pt;
}
th {
background: #3498db;
color: white;
font-weight: bold;
}
文末附完整的记忆规则代码,看完即可直接复用。
一个真实的数据对比

这是我的会话记录。
你看 2 月 10 日,一个 1.71MB,一个 1MB。后面几天更大——2 月 25 日 2.98MB,2 月 26 日 2.48MB。这些都是优化前的。

现在呢?3 月份的会话,降到几十到几百 KB。
我是怎么做到的?
问题出在哪?

我的记忆文件有 5800 多字符,全量加载要 3000 多 Token。
每次对话都加载一遍,这就像找资料把整个图书馆搬回家。
第一招:QMD 模式
在 AGENTS.md 里,我写好了记忆访问规范。
核心原则是:按需检索,不全量加载。
具体怎么用?

我在 OpenClaw 里配置了智谱的 embedding-3 模型做向量化检索。
选智谱是因为:
- ✅ 中文友好
- ✅ 性价比高
OpenClaw 也支持 OpenAI、Gemini 等其他向量服务。

用 OpenClaw 自带的 memory_search 输入关键词,系统会在 MEMORY.md 和所有日志文件里搜索,找到最相关的片段。
再用 memory_get 精确读取需要的行。

不用全量加载,省掉 80-90% Token。
第二招:精简记忆

你看这里有 20 多个日志文件——我在 AGENTS.md 里设置了定时任务:
- 每天结束后自动沉淀一份日志
- 定期合成到主记忆文件里


这样 MEMORY.md 就不会越来越臃肿。
总结:2 招省掉 80-90% Token

| 招数 | 核心原理 | 效果 |
|---|---|---|
| QMD 模式 | 向量检索 + 精确读取 | 省掉 80-90% Token |
| 精简记忆 | 定时归档 + 保持精简 | 防止记忆膨胀 |
写在最后
如果你也在用 OpenClaw,这 2 招能帮你省下大量 Token。
关注我,后续分享更多 OpenClaw 实战技巧。
这里是 AI 共生阁,我们下期见~
附录 - ~.openclaw\workspace\AGENTS.md 的记忆规则
