我是如何將 OpenClaw Token 用量降低 90%(內附最省錢模型)

最後更新於 April 14, 2026

週二中午前,我的 OpenRouter 儀表板就顯示已經花了 47 美元。我大概只跑了十幾個程式任務——沒做什麼誇張的事,只有一些重構和幾個 bug 修正。就在那時我才發現,OpenClaw 的預設設定竟然默默把每一次互動都導向 Claude Opus,每個背景心跳 ping 也不例外,而且是按每百萬 tokens 15 美元以上在計費。

如果你也遇過類似狀況——而根據論壇上的討論,這種情況其實非常常見(「我已經花了 40 塊,但根本沒怎麼用」,有位使用者這麼寫)——那這篇指南會帶你完整走過我實際採用的「盤點+優化」方法,最終把每月支出大約砍掉 90%。這不只是「換成便宜模型」而已,而是系統性地拆解 token 到底花去哪裡、怎麼監控、哪些平價模型真的能扛住真實的 agent 工作,以及三組你今天就能直接複製使用的設定。整個流程只花了我一個下午。

什麼是 OpenClaw Token 使用量(為什麼預設值這麼高)?

Token 是 OpenClaw 中所有 AI 互動的計費單位。你可以把它想成一小段文字,大約每 4 個英文字符算 1 個 token。你送出的每則訊息、收到的每個回覆、每個背景程序的觸發,都會以 token 計費。

問題在於,OpenClaw 的預設值是為了最大能力設計,不是為了最低成本。開箱即用時,主模型就設成 anthropic/claude-opus-4-5——也就是可用選項裡最貴的那一個。心跳 ping 也用 Opus?子代理處理旁支任務時也用 Opus?拿 Opus 來做心跳 ping,就像請神經外科醫師來貼 OK 繃。技術上完全沒問題,但價格高得離譜。

多數使用者根本沒意識到,自己其實是在用高級費率處理最簡單的背景工作。這種預設配置,基本上假設你想讓最好的模型永遠處理所有事情,費用自然也照最高標準來算。

為什麼降低 OpenClaw Token 使用量,不只是省錢而已

最直接的好處當然是省錢,但還有一些會隨時間疊加的附加收益。

便宜的模型通常也更快。Gemini 2.5 Flash-Lite 的速度大約是 ,而 Opus 大約只有 51——也就是每次互動大約快 4 倍。GPT-OSS-120B 在 Cerebras 上可達 ,大約比 Opus 快 35 倍。對於有 50 次以上工具呼叫的 agent 迴圈來說,這種速度差意味著幾分鐘就能完成,而不是每一輪都等 Opus 那令人痛苦的 13.6 秒首 token 時間。

你還會得到更大的緩衝空間,不容易碰到 rate limit、被限流的 session 也更少,想擴大量使用時也不用跟帳單一起焦慮。

不同使用情境下的預估節省如下:

使用者類型預估每月支出(預設)完整優化後每月節省
輕度(約每天 10 次查詢)約 $100約 $12約 88%
中度(約每天 50 次查詢)約 $500約 $90約 82%
重度(每天 200+ 次查詢)約 $1,750約 $220約 87%

這些不是假設值。曾有開發者記錄自己從 ——也就是實打實砍掉 90%——關鍵就是把模型路由與本文後面會提到的隱藏耗損修正疊加起來。

OpenClaw Token 使用量解剖:每個 Token 到底花去哪裡

這一段是多數優化指南會跳過、但其實最重要的部分。你看不見問題,就沒辦法修。

Where OpenClaw tokens actually go — per-task breakdown

我實際稽核了幾個 session,並交叉比對 和社群的 /context dump,整理出一份典型單一程式任務的 token 帳本。大約 20,000 個 tokens 大致花在這些地方:

Token 類別通常占比範例(1 個程式任務)能否控制?
上下文累積(每次呼叫都重送對話歷史)約 40–50%約 9,000 tokens可以 — /clear/compact、縮短 session
工具輸出存放(shell 輸出、檔案讀取結果保留在歷史中)約 20–30%約 5,000 tokens可以 — 減少讀取、縮小工具範圍
系統提示重送(約 15K 基礎長度)約 10–15%約 3,000 tokens部分可控 — 讀取快取按 0.1 倍費率
多輪推理(串接式工具呼叫迴圈)約 10–15%約 2,500 tokens依模型選擇與提示詞品質而定
心跳/保活 ping約 5–10%約 1,500 tokens可以 — 改設定
子代理呼叫約 5–10%約 1,500 tokens可以 — 改模型路由

最大的一桶——上下文累積——其實就是你的對話歷史在每次 API 呼叫時都被重新送出。某個 顯示,單是 Messages 區塊就已經有 185,400 個 tokens,而模型甚至還沒開始回應。系統提示和工具又額外增加了約 35,800 個固定開銷。

重點是:如果你沒有在不相關的任務之間清空 session,你就等於在每一輪都把整段對話歷史重新傳一遍,也重新收費一次。

如何監控 OpenClaw Token 使用量(看不到,就無法降低)

在改任何設定之前,先搞清楚你的 tokens 都跑去哪裡。直接跳到「換便宜模型」卻不先監控,就像想減肥卻從來不上體重計。

查看 OpenRouter 儀表板

如果你是透過 OpenRouter 轉送請求,最方便的免設定方式就是 。你可以依 model、provider、API key 和時間區間篩選。Usage Accounting 檢視會把每次請求的 prompt、completion、reasoning 和 cached tokens 拆開。它也提供匯出按鈕(CSV 或 PDF),方便做長期分析。

要看什麼:哪個模型吃掉最多 tokens,以及 heartbeat 或 sub-agent 請求是否出現了異常大的項目。

稽核本機 API 紀錄

OpenClaw 會把 session 資料儲存在 ~/.openclaw/agents.main/sessions/sessions.json,裡面包含每個 session 的 totalTokens。你也可以執行 openclaw logs --follow --json,即時查看每次請求的紀錄。

有個值得知道的限制是:,因此儀表板可能會顯示壓縮前的舊數字。實際上應該以 /status/context detail 為準,而不是檔案裡存的總數。

使用第三方追蹤工具(適合中高頻使用者)

LiteLLM proxy 可在 100+ 供應商前方提供一個相容 OpenAI 的端點,並且能 。它最強的功能是:可針對每個 key 設硬性預算,而且即使你執行 /clear 也不會失效——就算子代理失控,也不可能突破你設定的上限。

Helicone 更簡單——只要 ,就能得到一個 Sessions 檢視,把相關請求分組。像「幫我修這個 bug」這種提示詞,若展開成 8 次以上子代理呼叫,會被整合成一筆 session,直接看到真實總成本。

在 OpenClaw 裡快速抽查

日常監控時,這四個 session 內指令就夠用了:

  • /status — 顯示上下文使用量、最近輸入/輸出 tokens、預估成本
  • /usage full — 每次回應底部的使用量摘要
  • /context detail — 逐檔案、逐技能、逐工具的 token 拆解
  • /compact [guidance] — 強制壓縮,並可附帶焦點提示字串

在修改設定前後都跑一次 /context detail。這就是判斷你的優化到底有沒有效的方式。

OpenClaw 最便宜模型大比拚:哪些平價 LLM 真能扛住 agent 工作

多數指南都會在這裡犯錯。它們只列價格表,然後直接指向最便宜那一列就結束。但基準測試不一定能預測真實的 agent 表現——社群對這件事已經反覆提醒很多次了。正如某位使用者所說:「benchmarks 根本無法真正說明哪個最適合 agentic AI。」

關鍵洞察是:最便宜的模型,不一定會帶來最低總成本。 一個會失敗、還要重試四次的模型,最後可能比一個 的中階模型更貴。在實際生產環境裡,請預留 ——而且如果五個 LLM 呼叫是串接起來的,只要第 4 步失敗,單純重試就會把前面五步全部再跑一次。

以下是我整理的能力矩陣,採用的是基於真實使用回饋的「Real Agentic Score」,不是人工合成的 benchmark:

模型輸入 $/1M輸出 $/1M工具呼叫可靠性多步推理能力真實 Agent 評分(1–5)最適合
Gemini 2.5 Flash-Lite$0.10$0.40中等 — 偶爾會迴圈基礎⭐2.5心跳、簡單查詢
GPT-OSS-120B$0.04$0.19尚可尚可⭐3.0平價試驗、重視速度的任務
DeepSeek V3.2$0.26$0.38不穩定(6 個公開 issue)不錯⭐3.0重推理、少量工具呼叫
Kimi K2.5$0.38$1.72不錯(透過 :exacto)尚可⭐3.5簡單到中等程度的程式工作
MiniMax M2.5 / M2.7$0.28$1.10不錯不錯⭐4.0日常通用程式主力模型
Claude Haiku 4.5$1.00$5.00很好不錯⭐4.5可靠的中階備援
Claude Sonnet 4.6$3.00$15.00很好很好⭐5.0複雜多步任務
Claude Opus 4.5/4.6$5.00$15.00很好很好⭐5.0只保留給最難的問題

關於 DeepSeek 和 Gemini Flash 用於工具呼叫的警告

DeepSeek V3.2 表面上看起來很漂亮——在 上有 72–74%,價格又比 Sonnet 便宜 11–36 倍。但實際上,跨 Cline、Roo Code、Continue 和 NVIDIA NIM 的 都記錄了它的工具呼叫行為有問題。Composio 的對決結論是:「。」Zvi Mowshowitz 更是一句話總結:「。」

Gemini 2.5 Flash 也有類似落差。一篇 Google AI Developers Forum 的討論串標題叫「Very frustrating experience with Gemini 2.5 function calling performance」,開頭就寫著:「.」

OpenRouter 也特別提醒一個關鍵細節:「.」如果你透過 OpenRouter 轉送便宜模型,請留意 :exacto 標籤——供應商悄悄切換,可能一夜之間就把原本可靠的便宜模型變成昂貴的重試迴圈。

各模型適用時機

  • Gemini Flash-Lite: 心跳、保活 ping、簡單問答。絕對不要拿來做多步工具呼叫。
  • MiniMax M2.5/M2.7: 日常通用程式工作主力。,價格只有 Sonnet 的一小部分。
  • Claude Haiku 4.5: 當便宜模型在工具呼叫上卡住時,用它當可靠備援。工具呼叫可靠性極佳,價格約比 Sonnet 便宜 3 倍。
  • Claude Sonnet 4.6: 複雜的多步 agent 工作。這是你真正花錢有感的地方。
  • Claude Opus: 只留給最難的問題,其他都不要用它。

(模型價格變動很快,實際套用設定前,請先到 或各供應商頁面確認最新費率。)

多數指南都會漏掉的隱藏 token 耗損

論壇使用者回報,關閉某些功能可以大幅降成本,但我看過的指南沒有一份把所有隱藏耗損和實際 token 影響整理成一份統一清單。以下是完整拆解:

隱藏耗損每次發生的 token 成本修正方式設定鍵
預設用 Opus 跑心跳未隔離時每次約 100,000 tokens改用 Haiku + isolatedSessionheartbeat.modelheartbeat.isolatedSession: true
子代理自動生成每次啟動前約 20,000 tokens子代理改路由到 Haikusubagents.model
載入整個 codebase 上下文每次自動探索約 3,000–15,000 tokens.clawignore 排除 node_modules、dist、lockfiles.clawrules + .clawignore
記憶自動摘要每個 session 約 500–2,000 tokens關閉或降低頻率memory: falsememory.max_context_tokens
對話歷史累積每輪累積 500+ tokens不相關任務之間開新 session執行 /clear 的紀律
MCP server 工具額外開銷4 個 server 約 7,000 tokens;5 個以上可到 50,000+保持 MCP 簡化移除未使用的 MCP
技能/外掛初始化每載入一個技能 200–1,000 tokens關閉未使用技能skills.entries.<name>.enabled: false
Agent Teams(plan 模式)約為一般 session 的 7 倍成本只在真的需要平行工作時使用盡量採順序執行

心跳耗損尤其值得單獨點出。預設情況下,心跳每 30 分鐘就會在主模型(Opus)上觸發一次。把 isolatedSession: true 打開後,這一項可以從每次約 100,000 tokens ——單這一項就能少掉 95–98%。

兩分鐘內最值得做的三個快速省 token 動作

這三個都沒風險,而且不到兩分鐘就能完成:

  1. 不同任務之間執行 /clear(5 秒)。 這是單次最有效的 token 節省方式。論壇普遍認為,只要在開始新工作前清空 session 歷史,就能 。還記得前面 /context dump 裡那個 18.5 萬 token 的 Messages 區塊嗎?/clear 會把它清掉。

  2. 把瑣碎工作切到 /model haiku-4.5(10 秒)。 有策略地切換模型,在日常任務上可帶來 。Haiku 處理大多數直線型程式工作、檔案查找、commit 訊息都綽綽有餘。

  3. .clawrules 縮到 200 行以下,再加上 .clawignore(90 秒)。 你的規則檔每次訊息都會載入。200 行大約就是每輪 1,500–2,000 tokens;1,000 行則會永久讓每次請求多背負 8,000–10,000 tokens。再搭配 .clawignore 排除 node_modules/dist/、lockfiles 和產生的程式碼,有開發者聲稱只靠這個習慣就

一步一步來:三組可直接複製的設定,快速壓低 OpenClaw Token 用量

OpenClaw monthly spend — default vs optimized configs

下面提供三份完整且有註解的 openclaw.json 設定,從「先開始省錢」到「完整優化堆疊」都有。每份都附內嵌註解與每月成本估算。

開始前須知:

  • 難度: 初階(Config A)→ 中階(Config B)→ 進階(Config C)
  • 所需時間: Config A 約 5 分鐘,Config C 約 15 分鐘
  • 你需要: 已安裝 OpenClaw、文字編輯器、可存取 ~/.openclaw/openclaw.json

Config A:初階 — 先把錢省下來

五行。零複雜度。把預設模型從 Opus 換成 Sonnet,關閉 memory 開銷,並把心跳隔離到 Haiku。

1// ~/.openclaw/openclaw.json
2{
3  "agents": {
4    "defaults": {
5      "model": { "primary": "anthropic/claude-sonnet-4-6" },  // 原本是 Opus — 立刻省下 3–5 倍
6      "heartbeat": {
7        "every": "55m",                // 對齊 1 小時快取 TTL,提升快取命中率
8        "model": "anthropic/claude-haiku-4-5",  // ping 用 Haiku,不要用 Opus
9        "isolatedSession": true        // 約 10 萬 → 2–5 千 tokens / 次
10      }
11    }
12  },
13  "memory": { "enabled": false }       // 每個 session 省約 500–2,000 tokens
14}

套用後你應該看到的變化: 先後各跑一次 /status。你每次請求的成本應該會明顯下降,而 OpenRouter Activity 頁面裡的 heartbeat 記錄也應該顯示 Haiku,而不是 Opus。

使用等級預設(Opus)Config A(Sonnet + Haiku 心跳)節省
輕度(約每天 10 次查詢)約 $100約 $3565%
中度(約每天 50 次查詢)約 $500約 $25050%
重度(約每天 200 次查詢)約 $1,750約 $90049%

Config B:中階 — 聰明的三層路由

主模型用 Sonnet 處理真正工作。子代理和 compaction 用 Haiku。Claude 被限流時,Gemini Flash-Lite 當便宜備援。fallback 鏈會自動處理供應商故障。

1{
2  "agents": {
3    "defaults": {
4      "model": {
5        "primary": "anthropic/claude-sonnet-4-6",
6        "fallbacks": [
7          "anthropic/claude-haiku-4-5",       // Sonnet 被限流時使用
8          "google/gemini-2.5-flash-lite"      // 超便宜的最後備援
9        ]
10      },
11      "models": {
12        "anthropic/claude-sonnet-4-6": {
13          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
14        }
15      },
16      "heartbeat": {
17        "every": "55m",                       // 55 分鐘 &lt; 1 小時 cache TTL = 可命中快取
18        "model": "google/gemini-2.5-flash-lite",  // 每次 ping 幾毛錢
19        "isolatedSession": true,
20        "lightContext": true                   // 心跳只帶最少上下文
21      },
22      "subagents": {
23        "maxConcurrent": 4,                   // 從預設 8 降下來
24        "model": "anthropic/claude-haiku-4-5" // 子代理不需要 Sonnet
25      },
26      "compaction": {
27        "mode": "safeguard",
28        "model": "anthropic/claude-haiku-4-5", // compaction 摘要交給 Haiku
29        "memoryFlush": { "enabled": true }
30      }
31    }
32  }
33}

預期結果: 你的 logs 裡,子代理項目應該會改成 Haiku 計費。心跳成本幾乎可忽略不計。fallback 鏈也代表即使 Claude 暫時不可用,你的 session 也不會卡死,而是平順降級到 Gemini。

使用等級預設Config B節省
輕度約 $100約 $2080%
中度約 $500約 $15070%
重度約 $1,750約 $50071%

Config C:進階玩家 — 完整優化堆疊

每個子代理分別指定模型、把上下文壓縮固定交給 Haiku、視覺任務走 Gemini Flash、.clawrules.clawignore 都縮緊、停用沒用到的技能。這就是把節省率推進到 85–90% 的設定。

1{
2  "agents": {
3    "defaults": {
4      "workspace": "~/clawd",
5      "model": {
6        "primary": "anthropic/claude-sonnet-4-6",
7        "fallbacks": [
8          "openrouter/anthropic/claude-sonnet-4-6",  // 不同供應商作為備援
9          "minimax/minimax-m2-7",                     // 便宜的日常主力備援
10          "anthropic/claude-haiku-4-5"                // 最後一層備援
11        ]
12      },
13      "models": {
14        "anthropic/claude-sonnet-4-6": {
15          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
16        },
17        "minimax/minimax-m2-7": {
18          "params": { "maxTokens": 8192 }
19        }
20      },
21      "heartbeat": {
22        "every": "55m",
23        "model": "google/gemini-2.5-flash-lite",
24        "isolatedSession": true,
25        "lightContext": true,
26        "activeHours": "09:00-19:00"           // 夜間不發心跳
27      },
28      "subagents": {
29        "maxConcurrent": 4,
30        "model": "anthropic/claude-haiku-4-5"
31      },
32      "contextPruning": { "mode": "cache-ttl", "ttl": "1h" },
33      "compaction": {
34        "mode": "safeguard",
35        "model": "anthropic/claude-haiku-4-5",
36        "identifierPolicy": "strict",
37        "memoryFlush": { "enabled": true }
38      },
39      "bootstrapMaxChars": 12000,              // 從預設 20000 降下來
40      "imageModel": "google/gemini-3-flash"    // 視覺任務改走便宜模型
41    }
42  },
43  "memory": { "enabled": true, "max_context_tokens": 800 },  // 最小化記憶
44  "skills": {
45    "entries": {
46      "web-search":       { "enabled": false },
47      "image-generation": { "enabled": false },
48      "audio-transcribe": { "enabled": false }
49    }
50  }
51}

每個子代理覆寫範例 —— 貼到 ~/.openclaw/agents/lint-runner/SOUL.md

1---
2name: lint-runner
3description: 執行 lint/format 檢查並套用簡單修正
4tools: [Bash, Read, Edit]
5model: anthropic/claude-haiku-4-5
6---

最低可用 .clawignore —— 光是這份就能把一般 bootstrap 從 150k 字元壓到約 30–50k:

1node_modules/
2dist/
3build/
4.next/
5coverage/
6.venv/
7vendor/
8*.lock
9package-lock.json
10yarn.lock
11pnpm-lock.yaml
12*.min.js
13*.min.css
14**/__snapshots__/
15**/*.snap
使用等級預設Config C節省
輕度約 $100約 $1288%
中度約 $500約 $9082%
重度約 $1,750約 $22087%

這些數字與兩份獨立的真實使用者回報相符:Praney Behl 記錄的 (省下 90%),以及 LaoZhang 的案例研究顯示在部分優化後從

/model 指令即時控制 OpenClaw Token 使用量

/model 指令會在保留完整對話上下文的前提下,切換下一輪要使用的模型——不會重設,也不會丟失歷史。這是長期累積省錢效果的日常習慣。

實際工作流:

  • 在處理棘手的多檔案重構?繼續用 Sonnet。
  • 只是想快速問「這個 regex 是在做什麼?」→ /model haiku,問完再 /model sonnet 切回去。
  • 寫 commit message 或潤飾文件?/model flash-lite,搞定。

你也可以在 openclaw.jsoncommands.aliases 裡設定別名,把短名稱(haikusonnetopusflash)對應到完整 provider 字串。每次切換都能少打幾個字。

算一下就知道:每天 50 次查詢都用 Sonnet,大約是每天 3 美元;同樣 50 次查詢若按 70/20/10 分配到 Haiku/Sonnet/Opus,大約是每天 1.10 美元。換算成一個月,就是從 90 美元降到 33 美元——便宜 63%,而且不用換工具,只要改習慣。

加碼:用 Thunderbit 追蹤不同供應商的 OpenClaw 模型價格

在 OpenRouter、Anthropic 直連 API、Google AI Studio、DeepSeek、MiniMax 這麼多模型與供應商之間,價格經常變動。Anthropic 曾一夜之間把 Opus 的輸出價格砍了約 67%。Google 也在 2025 年 12 月把 Gemini 免費方案限制下調了 。如果要手動維護一份靜態價格試算表,幾乎注定會跟不上變化。

不需要任何爬蟲程式碼,就能解決這件事。它是一個專為這類結構化資料擷取打造的 ,屬於 AI 網頁爬蟲。

我實際使用的流程是:

  1. 打開 OpenRouter 的模型頁面,在 Chrome 點 Thunderbit 的「AI Suggest Fields」。它會讀取頁面並建議欄位——模型名稱、輸入價格、輸出價格、context window、provider。
  2. 按下 Scrape,然後直接匯出到 Google Sheets。
  3. 用自然語言設定排程抓取——例如「每週一上午 9 點重新抓一次 OpenRouter 模型清單」——之後它就會自動在雲端執行。

從那之後,你的個人價格追蹤表就會自動更新。任何突然便宜 30% 的模型,或任何被標上 Exacto 的 provider,都會在週一早上的試算表裡自動出現,不需要你手動做任何事。我們也在部落格上寫過更多關於 的案例。

如果你是要比對各家供應商頁面(Anthropic、Google、DeepSeek)的價格,Thunderbit 的子頁面抓取會一路跟進每個模型連結,讀取其詳細頁並抓出各供應商費率——當你想知道把 Kimi K2.5 經由 OpenRouter 路由,是否比直接走 更便宜時,這功能特別有用。請查看 了解免費方案與方案細節。

降低 OpenClaw Token 使用量的重點總結

核心框架:理解 → 監控 → 路由 → 優化。

按影響力排序,最值得先做的是:

  1. 不要把 Opus 當預設。 把主模型改成 Sonnet 或 MiniMax M2.7,光這一項就能省下 3–5 倍成本。
  2. 隔離心跳。isolatedSession: true,並把心跳改走 Gemini Flash-Lite。這能把約 10 萬 token 的耗損壓到約 2–5 千。
  3. 把子代理路由到 Haiku。 每次啟動前就會先載入約 2 萬 tokens 的上下文,別讓這件事發生在 Opus 上。
  4. 養成 /clear 的習慣。 免費、只要 5 秒,而且社群共識認為它比任何單一操作都更能省 token。
  5. 加入 .clawignore 排除 node_modules、lockfiles 和 build 產物,可以大幅減少 bootstrap 上下文。
  6. 在變更前後用 /context detail 監測。 如果不能測量,就無法改善。

最便宜的模型要看任務而定。心跳用 Gemini Flash-Lite。日常程式碼用 MiniMax M2.7。需要穩定工具呼叫時用 Haiku。複雜多步工作交給 Sonnet。只有在真正最難的問題上才用 Opus,除此之外別碰它。

多數讀者只要用 Config A 或 B,就能在一個下午內看到 50–70% 的節省。要達到完整 85–90%,則需要把模型路由、隱藏耗損修正、.clawignore、session 紀律全部疊起來——但這是做得到的,而且效果很穩定。

常見問題

1. OpenClaw 每個月大概要多少錢?

完全取決於你的設定、使用量和模型選擇。輕度使用者(約每天 10 次查詢)在優化後通常每月花 5–30 美元;若用預設值,則可能超過 100 美元。中度使用者(約每天 50 次查詢)大約落在每月 90–400 美元。重度使用者在預設下可能達到 ——曾有記錄最極端的案例是單月 5,623 美元。Anthropic 內部遙測顯示,中位數大約是

2. 目前最便宜、又還適合寫程式的 OpenClaw 模型是哪個?

是最適合一般日常使用的主力模型——工具呼叫表現不錯,SWE-Pro 56.22,價格約每百萬 tokens 0.28 / 1.10 美元。若只是心跳和簡單查詢,Gemini 2.5 Flash-Lite 以 0.10 / 0.40 美元很難被打敗。若你需要很好的工具呼叫能力、但又不想付 Sonnet 的價格,Claude Haiku 4.5 以 1 / 5 美元是非常可靠的中階備援。

3. 我可以在 OpenClaw 裡用免費方案模型嗎?

技術上可以。GPT-OSS-120B 在 OpenRouter 的 :free 標籤和 NVIDIA Build 上都是免費的。Gemini Flash-Lite 也有免費方案(每分鐘 15 次、每天 1,000 次)。DeepSeek 也提供 。但免費方案通常限制很嚴、速度較慢,而且可用性不穩。日常使用來說,每百萬 tokens 只要幾毛錢的便宜付費模型,反而可靠得多。

4. 在對話中途用 /model 切換模型,會把上下文弄丟嗎?

不會。/model 會保留整個 session 的上下文——下一輪只是改由新模型處理,完整歷史都還在。這在 OpenClaw 的概念文件裡有確認,在 Claude Code 裡也一樣。你可以自由在 Haiku 和 Sonnet 之間切換,不會失去任何內容。

5. 今天要最快降低 OpenClaw 帳單,最有效的一招是什麼?

在不相關任務之間輸入 /clear。這是免費的、只要五秒,而且會清掉每次 API 呼叫都會重新送出的對話歷史。某個真實 session 顯示累積了 的訊息歷史——這些內容每一輪都被重新傳送、重新計費。開始新工作前先清空,是你能建立的最高投資報酬習慣。

試試 Thunderbit 的 AI 網頁爬蟲
Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
Openclaw token 使用量Openclaw 最便宜模型
目錄

試試 Thunderbit

只要 2 次點擊,就能抓取名單與其他資料。AI 驅動。

取得 Thunderbit 完全免費