我是如何把 OpenClaw 的 token 使用量降低 90% 的(文内附最便宜模型)

最后更新于 April 14, 2026

周二中午还没到,我的 OpenRouter 仪表盘就已经显示花了 47 美元。那天我大概只跑了十来个编码任务——一点都不夸张,也就是些重构和少量 bug 修复。就在那一刻我才发现,OpenClaw 的默认设置其实在偷偷把每一次交互都路由到 Claude Opus,连后台心跳 ping 也没放过,而它的价格高到每百万 tokens 15 美元以上。

如果你也碰到过这种“惊喜”——而且看论坛就知道,很多人都踩过坑(有用户直接写道:“我已经花了 40 美元了,但根本没怎么用”)——这篇指南会带你完整走一遍我实际用过的审计和优化流程,最后把月度开销压低了大约 90%。它不只是简单地“换个便宜模型”,而是系统性拆解 token 到底花在哪、怎么监控、哪些低价模型真的能胜任 agent 工作,以及 3 套可以直接复制的配置。我整个过程只花了一个下午。

什么是 OpenClaw token 使用量?为什么默认情况下这么高?

Token 是 OpenClaw 里所有 AI 交互的计费单位。你可以把它理解成很小的文本片段——大致相当于每个 token 4 个英文字符。你发出的每条消息、收到的每个回复、每个后台触发的流程,都会按 token 计费。

问题在于,OpenClaw 的默认配置追求的是“能力拉满”,而不是“成本最低”。开箱即用时,主模型被设成了 anthropic/claude-opus-4-5——这可是当前最贵的选项。心跳 ping 也用 Opus?子代理做边角任务也用 Opus?这就像请神经外科医生来贴创可贴。技术上没问题,但价格真的离谱。

大多数用户并没意识到,他们其实是在为那些几乎没什么价值的后台任务付高价。默认配置本质上是在假设:你希望任何时候、任何任务都用最强模型——而账单也会照这个逻辑来。

为什么降低 OpenClaw token 使用量,省的不只是钱

最直观的收益当然是成本下降。但随着时间拉长,还有一些连带效果也很重要。

更便宜的模型往往也更快。Gemini 2.5 Flash-Lite 的速度大约是 ,而 Opus 约为 51,单次交互就快了 4 倍。Cerebras 上的 GPT-OSS-120B 能跑到 ,大约比 Opus 快 35 倍。对于一个有 50 多轮工具调用的 agent 循环来说,这种速度差意味着你几分钟就能跑完,而不是每轮都忍受 Opus 那种让人头大的 13.6 秒首 token 等待时间。

你还会得到更宽裕的速率限制、更少的请求被限流,以及更容易扩容的使用空间,而不至于一看到账单就心里发紧。

不同使用强度下的预估节省如下:

用户类型默认配置下的月支出估算完成全面优化后每月节省
轻度用户(约 10 次查询/天)约 $100约 $12约 88%
中度用户(约 50 次查询/天)约 $500约 $90约 82%
重度用户(200+ 次查询/天)约 $1,750约 $220约 87%

这些不是纸上谈兵。有开发者记录了自己从 ——实打实节省了 90%——做法就是把模型路由优化和本文后面会讲到的那些“隐形耗费”一起处理掉。

OpenClaw token 使用量解剖:每个 token 到底花到哪了

这部分是大多数优化指南会跳过的,但恰恰是最关键的。你看不见,就没法优化。

OpenClaw token 实际流向——按任务拆分

我审计了多个会话,并结合 和社区 /context 导出内容,整理出一个典型单次编码任务的 token 账本。大约 20,000 个 token 主要花在这些地方:

Token 类别通常占总量比例示例(1 个编码任务)能否控制?
上下文累积(每次调用都会重发历史对话)约 40–50%约 9,000 tokens可以 — /clear/compact、缩短会话
工具输出存储(shell 输出、文件读取内容留在历史中)约 20–30%约 5,000 tokens可以 — 减少读取内容、收紧工具范围
系统提示词重发(约 15K 基础内容)约 10–15%约 3,000 tokens部分可以 — 缓存读可按 0.1 倍计费
多轮推理(串联工具调用循环)约 10–15%约 2,500 tokens取决于模型选择 + 更好的提示词
心跳 / 保活 ping约 5–10%约 1,500 tokens可以 — 改配置
子代理调用约 5–10%约 1,500 tokens可以 — 做模型路由
}

最大的一块耗费——上下文累积——就是每次 API 调用都会把整段对话历史重新发送一遍。有一份显示,仅 Messages 这一项就有 185,400 tokens,而模型当时甚至还没开始回复。再加上系统提示词和工具内容,又额外产生了约 35,800 tokens 的固定开销。

结论很直接:如果你不在无关任务之间清空会话,那你每一轮都在为重发整段历史付费。

如何监控 OpenClaw token 使用量(看不见,就减不掉)

在你改任何东西之前,先搞清楚 token 究竟流向哪里。直接跳到“换便宜模型”而不监控,就像减肥却从不称体重。

先看 OpenRouter 仪表盘

如果你是通过 OpenRouter 路由,那个 是最省事、几乎不用配置的看板。你可以按模型、提供商、API key 和时间段筛选。Usage Accounting 视图会把每次请求里的 prompt、completion、reasoning 和 cached tokens 拆开显示。它还支持导出(CSV 或 PDF),方便做更长周期的分析。

重点看什么:哪个模型消耗的 token 最多,以及心跳或子代理请求里有没有异常大的账单项。

审计本地 API 日志

OpenClaw 会把会话数据保存在 ~/.openclaw/agents.main/sessions/sessions.json,其中包含每个会话的 totalTokens。你也可以运行 openclaw logs --follow --json 来实时记录每次请求。

有个要注意的坑:,所以仪表盘可能显示的是压缩前的旧值。与其看存储总数,不如信 /status/context detail

使用第三方追踪工具(适合中重度用户)

LiteLLM proxy 能在 100 多家提供商前面提供一个 OpenAI 兼容端点,并且会。它最强的功能是:你可以给每个 key 设硬预算,而且即使执行 /clear 也不受影响——某个失控的子代理也别想突破你的上限。

Helicone 更简单,只要 就能得到一个 Sessions 视图,把相关请求归在一起。一个“帮我修这个 bug”的提示词如果拆成 8 次以上子代理调用,也会以一条会话记录出现,并显示真实总成本。

OpenClaw 内部快速抽查

日常监控时,下面 4 个会话内命令就够用了:

  • /status — 显示上下文使用情况、最近输入/输出 tokens、预估成本
  • /usage full — 每次回复的 usage 页脚
  • /context detail — 按文件、技能、工具拆分 token 明细
  • /compact [guidance] — 强制压缩上下文,可附带聚焦说明

在改配置前后都跑一遍 /context detail。这就是判断优化到底有没有效果的方式。

OpenClaw 最便宜模型大比拼:哪些低价 LLM 真能干 agent 工作

大多数指南都会在这里走偏。它们拿出一张价格表,指着最便宜那一行,然后就结束了。但基准测试并不能预测真实世界里的 agent 表现——社区已经反复强调这一点了。正如一位用户所说:“benchmark 并不能真正说明哪个最适合 agentic AI。”

关键洞察是:最便宜的模型,不一定是最便宜的结果。 一个会失败并重试四次的模型,花的钱可能比一个中档模型还多,而后者。在生产级 agent 系统里,要预留 ——如果五次 LLM 调用是串联执行的,而第 4 步失败了,简单粗暴的重试会把前面五步全部再跑一遍。

下面是我的能力矩阵,加入了基于真实用户反馈而不是合成 benchmark 的“真实 agent 得分”:

模型输入价 / 100 万 tokens输出价 / 100 万 tokens工具调用可靠性多步推理真实 Agent 得分(1–5)适合场景
Gemini 2.5 Flash-Lite$0.10$0.40一般 — 偶尔会循环基础⭐2.5心跳、简单查询
GPT-OSS-120B$0.04$0.19尚可尚可⭐3.0预算实验、对速度敏感的任务
DeepSeek V3.2$0.26$0.38不稳定(有 6 个公开问题)不错⭐3.0偏推理、少工具调用
Kimi K2.5$0.38$1.72不错(通过 :exacto)尚可⭐3.5轻到中等强度编码
MiniMax M2.5 / M2.7$0.28$1.10不错不错⭐4.0日常通用编码主力
Claude Haiku 4.5$1.00$5.00很好不错⭐4.5可靠的中档回退模型
Claude Sonnet 4.6$3.00$15.00很好很好⭐5.0复杂多步任务
Claude Opus 4.5/4.6$5.00$15.00很好很好⭐5.0只留给最难的问题

关于 DeepSeek 和 Gemini Flash 工具调用的提醒

DeepSeek V3.2 在纸面数据上很漂亮—— 上有 72–74% 的成绩,价格比 Sonnet 低 11–36 倍。但在实际使用中, 都记录了它工具调用行为异常。Composio 的正面对比结论是:“。” Zvi Mowshowitz 的一句话总结是:“”。

Gemini 2.5 Flash 也有类似问题。Google AI Developers Forum 上一篇题为“Very frustrating experience with Gemini 2.5 function calling performance”的帖子开头就写道:“."

OpenRouter 还特别指出了一个关键细节:“.” 如果你通过 OpenRouter 路由低价模型,记得关注 :exacto 标签——一次静默的 provider 切换,可能会把一个便宜且稳定的模型,悄悄变成高价重试循环。

什么时候用哪个模型

  • Gemini Flash-Lite: 心跳、保活 ping、简单问答。不要拿它做多步工具调用。
  • MiniMax M2.5/M2.7: 日常通用编码的主力。它在 的表现很能打,价格却只有 Sonnet 的一小部分。
  • Claude Haiku 4.5: 当便宜模型在工具调用上“卡壳”时,用它做可靠回退。工具调用能力优秀,而且价格比 Sonnet 便宜大约 3 倍。
  • Claude Sonnet 4.6: 复杂多步 agent 任务的主力。这类场景才是真正值回票价的地方。
  • Claude Opus: 只留给最难的问题。不要让它成为任何任务的默认选项。

(模型价格经常变动——在确定配置之前,请先到 或各提供商页面核实最新价格。)

大多数指南都会漏掉的隐形 token 黑洞

论坛用户普遍反馈,关闭某些特性后成本会明显下降,但我还没见过哪份指南能把所有“隐形耗费”及其真实 token 影响整理成统一清单。下面就是完整拆解:

This paragraph contains content that cannot be parsed and has been skipped.

其中,heartbeat 的耗费尤其值得单独说明。默认情况下,heartbeat 每 30 分钟就会在主模型(Opus)上触发一次。把 isolatedSession 设为 true 后,这一项会从每次约 100,000 tokens——单这一项就能减少 95–98%。

两分钟内最值钱的三项快速优化

下面三项都几乎零风险,而且每项不到两分钟:

  1. 无关任务之间执行 /clear(5 秒)。 这是最能省 token 的单项操作。论坛共识认为,仅靠在开始新任务前清空会话历史,就能减少 。还记得前面 /context 导出里那 185k token 的 Messages 桶吗?/clear 会直接清掉它。

  2. 把体力活切到 /model haiku-4.5(10 秒)。 这种战术性切换模型的做法,可让日常任务的成本降低 。Haiku 处理大多数简单编码、文件查询和提交信息都绰绰有余。

  3. .clawrules 缩到 200 行以内 + 添加 .clawignore(90 秒)。 你的规则文件会在每条消息里都被加载。200 行大约就是每轮 1,500–2,000 tokens;如果写到 1,000 行,那么每次请求都会永久背负 8,000–10,000 tokens 的开销。再配合 .clawignore 排除 node_modules/dist/、锁文件和生成代码,有开发者声称仅靠这一招就实现了

一步一步来:3 套可直接复制的配置,迅速降低 OpenClaw token 使用量

OpenClaw 月度支出——默认配置 vs 优化配置

下面给出 3 套完整、带注释的 openclaw.json 配置——从“先省钱再说”到“全量优化栈”都有。每套都包含行内注释和月度成本预估。

开始前先看:

  • 难度: 初级(配置 A)→ 中级(配置 B)→ 高级(配置 C)
  • 所需时间: 配置 A 约 5 分钟,配置 C 约 15 分钟
  • 你需要准备: 已安装 OpenClaw、文本编辑器、可访问 ~/.openclaw/openclaw.json

配置 A:入门版——先把钱省下来

只要五行,几乎零复杂度。把默认模型从 Opus 换成 Sonnet,关闭 memory 开销,并把 heartbeat 隔离到 Haiku。

1// ~/.openclaw/openclaw.json
2{
3  "agents": {
4    "defaults": {
5      "model": { "primary": "anthropic/claude-sonnet-4-6" },  // 原本是 Opus——成本立刻降 3-5 倍
6      "heartbeat": {
7        "every": "55m",                // 与 1 小时 cache TTL 对齐,尽量提高缓存命中率
8        "model": "anthropic/claude-haiku-4-5",  // ping 用 Haiku,别用 Opus
9        "isolatedSession": true        // 每次约 100k → 2-5k tokens
10      }
11    }
12  },
13  "memory": { "enabled": false }       // 每个会话可省约 500-2k tokens
14}

应用后你应该看到什么: 运行 /status 前后对比。每次请求的成本应该会明显下降,OpenRouter Activity 页面里的 heartbeat 条目也应该从 Opus 变成 Haiku。

使用层级默认配置(Opus)配置 A(Sonnet + Haiku heartbeats)节省
轻度(约 10 次/天)约 $100约 $3565%
中度(约 50 次/天)约 $500约 $25050%
重度(约 200 次/天)约 $1,750约 $90049%

配置 B:进阶版——聪明的三层路由

主模型用 Sonnet 处理真正的工作。子代理和 compaction 用 Haiku。Claude 被限流时,再用 Gemini Flash-Lite 当低价回退。回退链会自动处理提供商故障。

1{
2  "agents": {
3    "defaults": {
4      "model": {
5        "primary": "anthropic/claude-sonnet-4-6",
6        "fallbacks": [
7          "anthropic/claude-haiku-4-5",       // 如果 Sonnet 被限流,就切这里
8          "google/gemini-2.5-flash-lite"      // 超低价终极备选
9        ]
10      },
11      "models": {
12        "anthropic/claude-sonnet-4-6": {
13          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
14        }
15      },
16      "heartbeat": {
17        "every": "55m",                       // 55 分钟 < 1 小时缓存 TTL = 更容易命中缓存
18        "model": "google/gemini-2.5-flash-lite",  // 每次 ping 只要几分钱
19        "isolatedSession": true,
20        "lightContext": true                   // heartbeat 调用尽量带更少上下文
21      },
22      "subagents": {
23        "maxConcurrent": 4,                   // 从默认 8 降下来
24        "model": "anthropic/claude-haiku-4-5" // 子代理没必要上 Sonnet
25      },
26      "compaction": {
27        "mode": "safeguard",
28        "model": "anthropic/claude-haiku-4-5", // 压缩摘要交给 Haiku
29        "memoryFlush": { "enabled": true }
30      }
31    }
32  }
33}

预期结果: 日志里的子代理条目应该都按 Haiku 计费。heartbeat 的成本会接近于零。回退链还能确保 Claude 出问题时不会卡死整个会话——它会优雅降级到 Gemini。

使用层级默认配置配置 B节省
轻度约 $100约 $2080%
中度约 $500约 $15070%
重度约 $1,750约 $50071%

配置 C:进阶玩家版——完整优化栈

按子代理单独指定模型、把上下文压缩固定到 Haiku、视觉任务路由到 Gemini Flash、收紧 .clawrules + .clawignore、关闭没用的技能。这套配置可以把节省幅度推到 85–90%。

1{
2  "agents": {
3    "defaults": {
4      "workspace": "~/clawd",
5      "model": {
6        "primary": "anthropic/claude-sonnet-4-6",
7        "fallbacks": [
8          "openrouter/anthropic/claude-sonnet-4-6",  // 备用提供商
9          "minimax/minimax-m2-7",                     // 便宜的日常主力回退
10          "anthropic/claude-haiku-4-5"                // 最后兜底
11        ]
12      },
13      "models": {
14        "anthropic/claude-sonnet-4-6": {
15          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
16        },
17        "minimax/minimax-m2-7": {
18          "params": { "maxTokens": 8192 }
19        }
20      },
21      "heartbeat": {
22        "every": "55m",
23        "model": "google/gemini-2.5-flash-lite",
24        "isolatedSession": true,
25        "lightContext": true,
26        "activeHours": "09:00-19:00"           // 夜间不发 heartbeat
27      },
28      "subagents": {
29        "maxConcurrent": 4,
30        "model": "anthropic/claude-haiku-4-5"
31      },
32      "contextPruning": { "mode": "cache-ttl", "ttl": "1h" },
33      "compaction": {
34        "mode": "safeguard",
35        "model": "anthropic/claude-haiku-4-5",
36        "identifierPolicy": "strict",
37        "memoryFlush": { "enabled": true }
38      },
39      "bootstrapMaxChars": 12000,              // 从默认 20000 降下去
40      "imageModel": "google/gemini-3-flash"    // 视觉任务用便宜模型
41    }
42  },
43  "memory": { "enabled": true, "max_context_tokens": 800 },  // 尽量保留最小记忆
44  "skills": {
45    "entries": {
46      "web-search":       { "enabled": false },
47      "image-generation": { "enabled": false },
48      "audio-transcribe": { "enabled": false }
49    }
50  }
51}

按子代理覆盖模型的示例——粘贴到 ~/.openclaw/agents/lint-runner/SOUL.md

1---
2name: lint-runner
3description: 运行 lint/format 检查,并修复简单问题
4tools: [Bash, Read, Edit]
5model: anthropic/claude-haiku-4-5
6---

最小可用版 .clawignore——单这一项就能把典型 bootstrap 从 150k 字符压到 30–50k:

1node_modules/
2dist/
3build/
4.next/
5coverage/
6.venv/
7vendor/
8*.lock
9package-lock.json
10yarn.lock
11pnpm-lock.yaml
12*.min.js
13*.min.css
14**/__snapshots__/
15**/*.snap
使用层级默认配置配置 C节省
轻度约 $100约 $1288%
中度约 $500约 $9082%
重度约 $1,750约 $22087%

这些数字与两份独立的真实用户报告相吻合:Praney Behl 记录的结果是从 (减少 90%),而 LaoZhang 的案例研究则显示,在部分优化下可实现

/model 命令实时控制 OpenClaw token 使用量

/model 命令会在保留完整对话上下文的前提下,切换下一轮要使用的模型——不会重置,也不会丢历史。这是那种越用越省钱的日常习惯。

实际工作流可以这样安排:

  • 在处理复杂的多文件重构?继续用 Sonnet。
  • 只是想快速问一句“这个正则到底干嘛的?”?/model haiku,问完再切回 /model sonnet
  • 要写提交信息或润色文档?/model flash-lite,直接搞定。

你还可以在 openclaw.jsoncommands.aliases 里配置别名,把短名称(haikusonnetopusflash)映射到完整 provider 字符串。每次切换都能少敲几个字。

算一笔账:每天 50 个查询都用 Sonnet,大约是每天 3 美元。同样 50 个查询如果按 70/20/10 分配到 Haiku/Sonnet/Opus,大约是每天 1.10 美元。按月算就是从 90 美元降到 33 美元——便宜了 63%,而你什么工具都不用换,只需要改习惯。

加餐:用 Thunderbit 追踪不同提供商的 OpenClaw 模型价格

随着模型和提供商越来越多——OpenRouter、Anthropic 直连 API、Google AI Studio、DeepSeek、MiniMax——价格变动也越来越频繁。Anthropic 曾一夜之间把 Opus 的输出定价砍了约 67%。Google 也在 2025 年 12 月把 Gemini 免费层限制下调了 。手工维护静态价格表,几乎注定会被现实打脸。

不需要写任何爬虫代码就能解决这个问题。它是一款 ,本质上就是为这种结构化数据提取场景而生的 AI 网页爬虫。

我常用的工作流是:

  1. 在 Chrome 里打开 OpenRouter 的模型页面,然后点 Thunderbit 的“AI Suggest Fields”。它会读取页面并自动建议列,例如模型名称、输入价格、输出价格、上下文窗口、提供商。
  2. 点击 Scrape,然后直接导出到 Google Sheets。
  3. 用自然语言设置定时抓取——比如“每周一上午 9 点重新抓取 OpenRouter 模型列表”——它就会自动在云端运行。

从那以后,你自己的价格跟踪表就能自动更新。任何突然降价 30% 的模型,或者带上 Exacto 标签的提供商,都会在你周一早上的表格里自动出现,完全不用你动手。我们还在博客里写过更多关于 用法。

如果你要对比各个直连提供商页面(Anthropic、Google、DeepSeek)的价格,Thunderbit 的子页面抓取会沿着每个模型链接进入详情页,提取各提供商费率——当你想知道把 Kimi K2.5 通过 OpenRouter 路由,是否比直接通过 更便宜时,这个功能特别有用。到 查看免费层和套餐详情。

降低 OpenClaw token 使用量的核心总结

整体框架就是:理解 → 监控 → 路由 → 优化。

按影响程度从高到低,最值得做的事如下:

  1. 不要默认用 Opus。 把主模型切到 Sonnet 或 MiniMax M2.7,单这一项就能把成本降低 3–5 倍。
  2. 把 heartbeats 隔离出来。 设置 isolatedSession: true,并把 heartbeat 路由到 Gemini Flash-Lite。这样原本约 10 万 token 的耗费会变成约 2–5k。
  3. 把子代理路由到 Haiku。 每次生成子代理,都会先加载约 20k token 的上下文,然后才开始干活。别让这种事在 Opus 上发生。
  4. 认真执行 /clear 免费,只要 5 秒,而且社区普遍认为它比任何单项操作都更能省钱。
  5. 添加 .clawignore 排除 node_modules、锁文件和构建产物,会显著减少 bootstrap 上下文。
  6. 在改动前后用 /context detail 监控。 你测不到,就优化不了。

最便宜的模型要看任务而定。心跳用 Gemini Flash-Lite。日常编码用 MiniMax M2.7。需要稳定工具调用时用 Haiku。复杂多步任务交给 Sonnet。最难的问题才用 Opus——仅此而已。

大多数读者只要用配置 A 或 B,在一个下午内就能看到 50–70% 的节省。要达到完整的 85–90%,就需要把上面这些都叠加起来——模型路由、隐形耗费修复、.clawignore、会话纪律——但这完全可行,而且效果能持续保持。

常见问题

1. OpenClaw 每月大概要多少钱?

这完全取决于你的配置、使用量和模型选择。轻度用户(约 10 次查询/天)在优化后通常每月花 $5–30;默认配置下则常常是 $100+。中度用户(约 50 次查询/天)大约在每月 $90–400。重度用户默认情况下可能会达到 ——有个极端案例单月甚至花了 $5,623。Anthropic 自己的内部遥测显示,中位数大约是

2. 目前最便宜、但还能用于编码的 OpenClaw 模型是哪一个?

是最适合作为日常主力的选择——工具调用可靠性不错,SWE-Pro 56.22,价格大约是每百万 tokens 输入 $0.28、输出 $1.10。对于 heartbeat 和简单查询,Gemini 2.5 Flash-Lite(输入 $0.10、输出 $0.40)几乎没有对手。如果你需要很稳定的工具调用,又不想付 Sonnet 那么贵的价格,Claude Haiku 4.5(输入 $1、输出 $5)是最稳妥的中档回退。

3. 能在 OpenClaw 里用免费层模型吗?

技术上可以。GPT-OSS-120B 在 OpenRouter 的 :free 标签和 NVIDIA Build 上都是免费的。Gemini Flash-Lite 也有免费层(15 RPM、每天 1,000 次请求)。DeepSeek 注册时会送 。但免费层通常限流更严、速度更慢,而且可用性不够稳定。对于日常使用来说,每百万 tokens 只要几分钱的低价付费模型,反而可靠得多。

4. 用 /model 在对话中途切换模型,会丢上下文吗?

不会。/model 会保留整个会话上下文——下一轮会在完整历史不变的情况下路由到新模型。OpenClaw 的概念文档里也验证了这一点,Claude Code 的行为也是一样。你可以在 Haiku 和 Sonnet 之间自由切换,不会丢任何内容。

5. 今天最快降低 OpenClaw 账单的方法是什么?

在无关任务之间输入 /clear。它免费,只要五秒,而且会清掉每次 API 调用都会重新发送的对话历史。有个真实会话显示,累计消息历史达到了 ——这些内容在每一轮里都被重新传输、重新计费。在开始新工作前先清空它,是你能养成的最高回报习惯。

试试 Thunderbit,轻松搞定 AI 网页爬取
Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
Openclaw token 使用量Openclaw 最便宜模型
目录

试试 Thunderbit

只需 2 次点击即可抓取线索和其他数据。AI 驱动。

获取 Thunderbit 免费使用
使用 AI 提取数据
轻松将数据转移到 Google Sheets、Airtable 或 Notion
PRODUCT HUNT#1 Product of the Week