OpenClaw のトークン使用量を90%削減した方法(最安モデルも紹介)

最終更新日 April 14, 2026

火曜日の昼前、OpenRouter のダッシュボードを見て思わず固まりました。すでに47ドル使っていたのです。こなしたコーディング作業はせいぜい十数件。大げさなことは何もしていません。ちょっとしたリファクタリングと、いくつかのバグ修正だけです。そこで気づいたのが、OpenClaw のデフォルト設定では、バックグラウンドの heartbeat ping まで含めて、あらゆるやり取りが Claude Opus に流れており、1百万トークンあたり15ドル超の料金が発生していたという事実でした。

似たような「え、そんなに?」という経験がある方も多いはずです。フォーラムを見ても、同じ驚きを感じている人は少なくありません(あるユーザーは「そんなに使っていないのにもう40ドルかかった」と書いていました)。この記事では、私が月額コストを約90%削減するために実践した、監査と最適化の全手順を紹介します。単に「安いモデルに変える」だけではなく、どこで実際にトークンが消費されているのか、どう監視するのか、本当にエージェント作業に耐えうる低コストモデルはどれか、そして今日そのまま使える3つのコピペ設定まで、体系的に解説します。作業全体は半日で完了しました。

OpenClaw のトークン使用量とは? なぜデフォルトでこんなに高いのか?

トークンとは、OpenClaw でのあらゆる AI 互动の課金単位です。ざっくり言えば、文字の小さなかたまりのようなもの。英語ならおよそ4文字で1トークン程度です。送信するメッセージも、受け取る応答も、バックグラウンドで動く処理も、すべてトークンとして課金されます。

問題は、OpenClaw の初期設定が「最安」ではなく「最高性能」を優先していることです。最初から主要モデルは anthropic/claude-opus-4-5 に設定されており、これは使える中で最も高価な選択肢です。heartbeat ping も Opus。サイドタスク用のサブエージェントも Opus。heartbeat ping に Opus を使うのは、絆創膏を貼るだけの作業に脳神経外科医を呼ぶようなものです。能力的には問題なくても、コストは完全にやりすぎです。

多くのユーザーは、単純なバックグラウンド処理にまでプレミアム料金を払っていることに気づいていません。デフォルト構成は、実質的に「何でも常に最高モデルを使う」前提で動いており、その分しっかり請求されます。

OpenClaw のトークン使用量を減らすと、節約できるのはお金だけではない

もちろん一番わかりやすい効果はコスト削減です。ただ、それ以外にも積み上がるメリットがあります。

安いモデルはしばしば速いです。Gemini 2.5 Flash-Lite は で処理できるのに対し、Opus は約51トークン。つまり約4倍の速度差があります。Cerebras 上の GPT-OSS-120B は に達し、Opus よりおよそ35倍高速です。50回以上の tool-calling を含むエージェントループでは、この差が積み重なり、Opus の重い初回応答遅延 13.6 秒を何度も待つ代わりに、数分で終わるようになります。

さらに、レート制限に引っかかりにくくなり、セッションの throttling も減り、請求額を気にして胃が痛くなることなく利用を拡大できます。

利用規模別の節約イメージは以下のとおりです。

ユーザー像月額推定コスト(デフォルト)最適化後月間削減率
ライトユーザー(1日約10件)約$100約$12約88%
中程度(1日約50件)約$500約$90約82%
ヘビーユーザー(1日200件以上)約$1,750約$220約87%

これは机上の空論ではありません。ある開発者は、 と、実に90%近い削減に成功しました。モデルのルーティングに加え、この後紹介する“見えない消費”対策を組み合わせた結果です。

OpenClaw のトークン使用量の内訳:実際にどこで消費されているのか

多くの最適化記事が飛ばしているのが、ここであり、実は最重要ポイントでもあります。見えないものは改善できません。

OpenClaw のトークンはどこで消費されるのか — タスク別内訳

私は複数のセッションを監査し、 とコミュニティの /context ダンプを突き合わせて、一般的な1件のコーディング作業におけるトークン台帳を作成しました。おおよそ2万トークンが、次のように消費されていました。

トークンカテゴリ全体に占める典型割合例(1件のコーディング作業)制御できるか?
コンテキスト蓄積(会話履歴を毎回再送)約40〜50%約9,000トークンはい — /clear/compact、短いセッション
ツール出力の保持(shell 出力やファイル読み込みを履歴に残す)約20〜30%約5,000トークンはい — 読み取りを小さく、ツール範囲を狭く
システムプロンプトの再送(約15Kのベース)約10〜15%約3,000トークン一部可能 — cache read は0.1倍課金
複数ラウンド推論(tool-calling の連鎖ループ)約10〜15%約2,500トークンモデル選択 + より良いプロンプト
heartbeat / keep-alive ping約5〜10%約1,500トークンはい — 設定変更
サブエージェント呼び出し約5〜10%約1,500トークンはい — モデルルーティング

最大の消費源はコンテキスト蓄積です。つまり、会話履歴が毎回の API 呼び出しで再送されているということです。ある では、モデルがまだ一言も返す前の段階で、Messages バケットだけで 185,400トークン が記録されていました。さらにその上に、システムプロンプトとツールで約35,800トークンの固定オーバーヘッドが乗っていました。

つまり、関係のない作業のたびにセッションを切り替えずにいると、毎ターンごとに会話履歴全体を再送するコストを払い続けることになります。

OpenClaw のトークン使用量を監視する方法(見えなければ削れない)

何かを変える前に、まずトークンがどこへ消えているかを見える化しましょう。監視なしで「安いモデルに変える」だけでは、体重計に一度も乗らずにダイエットしようとするようなものです。

OpenRouter ダッシュボードを確認する

OpenRouter 経由でルーティングしているなら、 が最も手軽で、セットアップ不要のダッシュボードです。モデル、プロバイダー、APIキー、期間で絞り込みができます。Usage Accounting では、各リクエストの prompt、completion、reasoning、cached tokens を分解して確認できます。長期分析用に CSV または PDF でエクスポートも可能です。

見るべきポイントは、どのモデルが最もトークンを消費しているか、そして heartbeat やサブエージェントのリクエストが想定外に大きな行として出ていないかです。

ローカル API ログを監査する

OpenClaw はセッションデータを ~/.openclaw/agents.main/sessions/sessions.json に保存しており、ここにはセッションごとの totalTokens が含まれます。さらに openclaw logs --follow --json を実行すれば、リクエスト単位のログをリアルタイムで追えます。

注意点として、。そのため、ダッシュボード上では compaction 前の古い数値が残ることがあります。保存値よりも /status/context detail を信頼してください。

サードパーティの追跡ツールを使う(中〜ヘビーユーザー向け)

LiteLLM proxy は、100以上のプロバイダーの前段に置ける OpenAI互換エンドポイントで、 します。強力なのは、キーごとの厳格な予算上限を設定できること。/clear を使っても消えず、暴走したサブエージェントが上限を超えるのを防げます。

Helicone はさらにシンプルです。 で、関連リクエストをまとめた Sessions ビューが使えます。たとえば「このバグを直して」という1つの指示から8回以上サブエージェントが派生した場合でも、1つのセッション行に実コストがまとまって表示されます。 です。

OpenClaw 内での簡単な確認コマンド

日々の監視には、セッション内で次の4コマンドが役立ちます。

  • /status — コンテキスト使用量、直近の入力/出力トークン、推定コストを表示
  • /usage full — 各応答のフッターに使用量を表示
  • /context detail — ファイル別、skill 別、ツール別のトークン内訳を表示
  • /compact [guidance] — 必要に応じた指示付きで compaction を強制

設定変更の前後で /context detail を実行してください。最適化が本当に効いているかを測るための基準になります。

OpenClaw の最安モデル比較:実際にエージェント作業をこなせる低価格LLMはどれか

多くのガイドはここで間違えます。価格表を出して一番安い行を指差し、「はい終わり」です。しかしベンチマークだけでは、実際のエージェント性能は予測できません。これはコミュニティでも何度も強く指摘されている点です。あるユーザーは「どれがエージェントAIに本当に向いているかを理解するのに、ベンチマークは全然役に立っていない」と言っていました。

重要なのは、最安モデルが最安の結果になるとは限らないということです。失敗して4回やり直すモデルは、 より高くつきます。実運用のエージェントでは、 を前提に考えるべきです。しかも5回のLLM呼び出しが鎖のようにつながり、4段目で失敗すると、単純な再試行では5ステップ全部をやり直すことになります。

以下は、合成ベンチマークではなく実際のユーザー報告をもとにした「Real Agentic Score」を含む、私の能力マトリクスです。

モデル入力 $/100万出力 $/100万tool-calling の安定性多段推論Real Agentic Score(1〜5)最適用途
Gemini 2.5 Flash-Lite$0.10$0.40ばらつきあり — たまにループ基本的⭐2.5heartbeat、簡単な参照
GPT-OSS-120B$0.04$0.19まずまずまずまず⭐3.0低予算での検証、速度重視
DeepSeek V3.2$0.26$0.38不安定(未解決 issue 6件)良好⭐3.0推論重視、tool-calling 少なめ
Kimi K2.5$0.38$1.72良好(:exacto 経由)まずまず⭐3.5簡単〜中程度のコーディング
MiniMax M2.5 / M2.7$0.28$1.10良好良好⭐4.0日常使いの一般的なコーディング
Claude Haiku 4.5$1.00$5.00非常に優秀良好⭐4.5安定した中位フォールバック
Claude Sonnet 4.6$3.00$15.00非常に優秀非常に優秀⭐5.0複雑な多段タスク
Claude Opus 4.5/4.6$5.00$15.00非常に優秀非常に優秀⭐5.0最難関の問題専用

DeepSeek と Gemini Flash の tool-calling に関する注意点

DeepSeek V3.2 は表面上かなり優秀に見えます。SWE-Bench で72〜74%、Sonnet より11〜36倍安いとも言われます。しかし実際には、Cline、Roo Code、Continue、NVIDIA NIM にまたがる が、tool-calling の破綻を記録しています。Composio の比較では、「」という結論でした。Zvi Mowshowitz の一言も象徴的です。「」。

Gemini 2.5 Flash にも同様のギャップがあります。Google AI Developers Forum の「Gemini 2.5 function calling performance で非常にフラストレーションを感じる」というスレッドは、「」という書き出しで始まります。

OpenRouter は重要な注意点も示しています。「」。安価なモデルを OpenRouter 経由で使うなら、:exacto タグを確認してください。プロバイダーが静かに切り替わると、昨日まで安定していた低コストモデルが、突然高価な retry ループに変わることがあります。

モデルごとの使い分け

  • Gemini Flash-Lite: heartbeat、keep-alive ping、簡単な Q&A。複数ステップの tool-calling には使わない。
  • MiniMax M2.5/M2.7: 一般的なコーディングの主力。Sonnet より大幅に安く、 を記録。
  • Claude Haiku 4.5: 安いモデルが tool call で詰まったときの信頼できる逃げ道。Sonnet より約3倍安く、tool-calling の安定性が高い。
  • Claude Sonnet 4.6: 複雑な多段エージェント作業向け。ここでこそ費用対効果が出ます。
  • Claude Opus: 最難関の問題だけに使う。何でもかんでもデフォルトにしない。

(モデル価格は頻繁に変わるため、設定前に または各プロバイダーの公式ページで最新料金を確認してください。)

多くのガイドが見落とす“見えない”トークン消費

フォーラムでは、特定機能を無効化するとコストが大きく下がるという報告が多くありますが、実際のトークン影響まで含めて整理した統合チェックリストは、私が見つけた限りありませんでした。そこで、見落とされがちな消費源を一気に分解します。

This paragraph contains content that cannot be parsed and has been skipped.

heartbeat の消費は特に重要です。デフォルトでは、heartbeat は30分ごとに主要モデル(Opus)で実行されます。isolatedSession: true を設定すると、1回あたり約100,000トークンだった消費が まで下がり、単体で95〜98%の削減になります。

2分以内でできる、最も効果の大きい3つの改善

以下の3つはすべてリスクゼロで、しかも2分以内にできます。

  1. 関係ない作業の間で /clear を使う(5秒)。 これが最も大きな節約になります。フォーラムでは、 が見込めるという意見が多く、新しい作業を始める前にセッション履歴を消すだけで効果が出ます。先ほどの /context ダンプにあった185kトークンの Messages バケットを思い出してください。/clear はそれを消します。

  2. 雑務には /model haiku-4.5 を使う(10秒)。 用途に応じてモデルを切り替えるだけで、定型作業のコストを できます。Haiku なら、単純なコーディング、ファイル検索、コミットメッセージ作成は十分こなせます。

  3. .clawrules を200行未満に削り、.clawignore を追加する(90秒)。 ルールファイルは、メッセージのたびに毎回読み込まれます。200行なら1ターンあたり約1,500〜2,000トークン、1,000行なら毎リクエストに8,000〜10,000トークンの恒久的な負担になります。これに node_modules/dist/、lockfile、生成コードを除外する .clawignore を組み合わせると、ある開発者はこの工夫だけで を達成したと報告しています。

手順つき:OpenClaw のトークン使用量を一気に削る、すぐ使える3つの設定

OpenClaw の月額コスト — デフォルト設定と最適化設定の比較

以下に、完全注釈付きの openclaw.json 設定を3種類示します。「まずは始めたい」レベルから「完全最適化スタック」までをカバーしており、それぞれインラインコメントと月額コストの見積もり付きです。

始める前に:

  • 難易度: 初級(Config A)→ 中級(Config B)→ 上級(Config C)
  • 所要時間: Config A で約5分、Config C で約15分
  • 必要なもの: OpenClaw のインストール、テキストエディタ、~/.openclaw/openclaw.json へのアクセス

Config A: 初級 — とにかく節約したい人向け

5行だけ。複雑さはゼロ。デフォルトモデルを Opus から Sonnet に変え、メモリのオーバーヘッドを切り、heartbeat を Haiku に分離します。

1// ~/.openclaw/openclaw.json
2{
3  "agents": {
4    "defaults": {
5      "model": { "primary": "anthropic/claude-sonnet-4-6" },  // Opus から変更 — すぐに3〜5倍節約
6      "heartbeat": {
7        "every": "55m",                // 1時間の cache TTL に合わせてキャッシュヒット最大化
8        "model": "anthropic/claude-haiku-4-5",  // ping は Haiku、Opus ではない
9        "isolatedSession": true        // 約10万 → 2〜5千トークン/回
10      }
11    }
12  },
13  "memory": { "enabled": false }       // 約500〜2,000トークン/セッションを節約
14}

適用後に見るべき点: /status を適用前後で実行してください。1リクエストあたりのコストがはっきり下がり、OpenRouter の Activity ページ上の heartbeat も Opus ではなく Haiku になっているはずです。

利用規模デフォルト(Opus)Config A(Sonnet + Haiku heartbeat)削減率
ライト(1日約10件)約$100約$3565%
中程度(1日約50件)約$500約$25050%
ヘビー(1日約200件)約$1,750約$90049%

Config B: 中級 — 3段階の賢いルーティング

主要作業は Sonnet。サブエージェントと compaction は Haiku。Claude が throttling された場合の格安フォールバックとして Gemini Flash-Lite。フォールバックチェーンで、プロバイダー障害にも自動的に対応します。

1{
2  "agents": {
3    "defaults": {
4      "model": {
5        "primary": "anthropic/claude-sonnet-4-6",
6        "fallbacks": [
7          "anthropic/claude-haiku-4-5",       // Sonnet が throttled されたら
8          "google/gemini-2.5-flash-lite"      // 最後の切り札として超低コスト
9        ]
10      },
11      "models": {
12        "anthropic/claude-sonnet-4-6": {
13          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
14        }
15      },
16      "heartbeat": {
17        "every": "55m",                       // 55分 < 1時間の cache TTL = キャッシュヒット
18        "model": "google/gemini-2.5-flash-lite",  // ping 1回あたり数円レベル
19        "isolatedSession": true,
20        "lightContext": true                   // heartbeat では最小限のコンテキストのみ
21      },
22      "subagents": {
23        "maxConcurrent": 4,                   // デフォルト8から削減
24        "model": "anthropic/claude-haiku-4-5" // サブエージェントに Sonnet は不要
25      },
26      "compaction": {
27        "mode": "safeguard",
28        "model": "anthropic/claude-haiku-4-5", // compaction 要約は Haiku で
29        "memoryFlush": { "enabled": true }
30      }
31    }
32  }
33}

期待される結果: ログ上のサブエージェントは Haiku の料金になり、heartbeat はほぼゼロに近いコストになります。フォールバックチェーンにより、Claude の障害でセッションが止まることなく、Gemini に自動で切り替わります。

利用規模デフォルトConfig B削減率
ライト約$100約$2080%
中程度約$500約$15070%
ヘビー約$1,750約$50071%

Config C: 上級者向け — 完全最適化スタック

サブエージェントごとのモデル指定、Haiku 固定のコンテキスト compaction、画像処理を Gemini Flash にルーティング、.clawrules.clawignore の最適化、未使用 skill の無効化。これで 85〜90% 削減の領域に入れます。

1{
2  "agents": {
3    "defaults": {
4      "workspace": "~/clawd",
5      "model": {
6        "primary": "anthropic/claude-sonnet-4-6",
7        "fallbacks": [
8          "openrouter/anthropic/claude-sonnet-4-6",  // 別プロバイダーをバックアップに
9          "minimax/minimax-m2-7",                     // 安い日常用フォールバック
10          "anthropic/claude-haiku-4-5"                // 最後の砦
11        ]
12      },
13      "models": {
14        "anthropic/claude-sonnet-4-6": {
15          "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
16        },
17        "minimax/minimax-m2-7": {
18          "params": { "maxTokens": 8192 }
19        }
20      },
21      "heartbeat": {
22        "every": "55m",
23        "model": "google/gemini-2.5-flash-lite",
24        "isolatedSession": true,
25        "lightContext": true,
26        "activeHours": "09:00-19:00"           // 夜間は heartbeat しない
27      },
28      "subagents": {
29        "maxConcurrent": 4,
30        "model": "anthropic/claude-haiku-4-5"
31      },
32      "contextPruning": { "mode": "cache-ttl", "ttl": "1h" },
33      "compaction": {
34        "mode": "safeguard",
35        "model": "anthropic/claude-haiku-4-5",
36        "identifierPolicy": "strict",
37        "memoryFlush": { "enabled": true }
38      },
39      "bootstrapMaxChars": 12000,              // デフォルト20000から削減
40      "imageModel": "google/gemini-3-flash"    // 画像系タスクは低コストモデルへ
41    }
42  },
43  "memory": { "enabled": true, "max_context_tokens": 800 },  // メモリは最小限
44  "skills": {
45    "entries": {
46      "web-search":       { "enabled": false },
47      "image-generation": { "enabled": false },
48      "audio-transcribe": { "enabled": false }
49    }
50  }
51}

サブエージェントごとの上書き例~/.openclaw/agents/lint-runner/SOUL.md に貼り付けてください。

1---
2name: lint-runner
3description: lint/format チェックを実行し、軽微な修正を適用する
4tools: [Bash, Read, Edit]
5model: anthropic/claude-haiku-4-5
6---

最低限の .clawignore — これだけでも、通常150k文字規模の bootstrap を30〜50k文字程度まで削れます。

1node_modules/
2dist/
3build/
4.next/
5coverage/
6.venv/
7vendor/
8*.lock
9package-lock.json
10yarn.lock
11pnpm-lock.yaml
12*.min.js
13*.min.css
14**/__snapshots__/
15**/*.snap
利用規模デフォルトConfig C削減率
ライト約$100約$1288%
中程度約$500約$9082%
ヘビー約$1,750約$22087%

これらの数字は、2つの独立した実例とも整合します。Praney Behl の記録では(90%削減)、また LaoZhang のケーススタディでは、部分的な最適化で が示されています。

/model コマンドで OpenClaw のトークン使用量をその場で制御する

/model コマンドは、会話コンテキストを保持したまま次のターンで使うモデルを切り替えます。リセットなし、履歴消失なし。これを日常習慣にすることで、節約効果が積み上がります。

実用的な使い方:

  • 厄介な複数ファイルのリファクタリング中? Sonnet のまま。
  • 「この正規表現って何してる?」のような軽い確認? /model haiku で質問して、終わったら /model sonnet で戻す。
  • コミットメッセージや文章の整え? /model flash-lite で十分。

openclaw.jsoncommands.aliases にエイリアスを設定して、haikusonnetopusflash のような短い名前を正式なプロバイダ文字列に割り当てられます。切り替えのたびの入力が少し楽になります。

計算してみると、1日50件をすべて Sonnet で処理すると約3ドル/日です。同じ50件でも、Haiku/Sonnet/Opus を70/20/10で使い分けると約1.10ドル/日になります。1か月換算では、90ドル → 33ドル。ツールは同じでも、習慣を変えるだけで63%安くなります。

おまけ:Thunderbit で OpenClaw のモデル価格をプロバイダー横断で追跡する

OpenRouter、Anthropic 直契約 API、Google AI Studio、DeepSeek、MiniMax など、モデルもプロバイダーも非常に多く、価格は頻繁に変動します。Anthropic はある日突然、Opus の出力価格を約67%引き下げました。Google も 2025年12月に Gemini の無料枠制限を 調整しました。静的な価格スプレッドシートを手作業で追い続けるのは、ほぼ負け戦です。

は、スクレイピングコードなしでこの問題を解決します。こうした構造化データ抽出のために作られた 型の AI web scraper です。

私が使っている流れは次のとおりです。

  1. Chrome で OpenRouter のモデル一覧ページを開き、Thunderbit の「AI Suggest Fields」をクリック。 ページを読み取り、モデル名、入力価格、出力価格、コンテキストウィンドウ、プロバイダーなどの列を提案してくれます。
  2. Scrape を実行し、そのまま Google Sheets にエクスポート。
  3. 自然文でスケジュールスクレイプを設定。 たとえば「毎週月曜9時に OpenRouter のモデル一覧を再取得」と書くだけで、クラウド上で自動実行されます。

これで、個人用の価格トラッカーが自動更新されるようになります。あるモデルが突然30%安くなったり、あるプロバイダーに Exacto タグが付いたりしても、月曜朝のスプレッドシートに自動で反映されます。私たちはブログで の活用例も紹介しています。

Anthropic、Google、DeepSeek のような直提供ページ間で価格を比較したい場合も、Thunderbit のサブページスクレイピングなら各モデルリンク先の詳細ページまでたどって、プロバイダーごとの料金を抽出できます。たとえば、Kimi K2.5 を OpenRouter 経由で使う方が、 直結より安いかを確認したいときに便利です。 で無料枠やプランの詳細を確認できます。

OpenClaw のトークン使用量を減らすための重要ポイント

基本の流れは 理解する → 監視する → ルーティングする → 最適化する です。

効果が大きい順に並べると、次のとおりです。

  1. デフォルトを Opus にしない。 主要モデルを Sonnet か MiniMax M2.7 に変えるだけで、コストが3〜5倍下がります。
  2. heartbeat を分離する。 isolatedSession: true にして、heartbeat は Gemini Flash-Lite に回す。これで約10万トークンの消費が約2〜5千トークンになります。
  3. サブエージェントは Haiku に回す。 生成のたびに約2万トークン分のコンテキストが載るので、それを Opus でやらない。
  4. /clear を習慣化する。 無料で5秒。コミュニティでも、単独で最も効果が大きい対策だと一致しています。
  5. .clawignore を追加する。 node_modules、lockfile、build artifacts を除外するだけで、bootstrap のコンテキストを大きく削れます。
  6. 変更前後で /context detail を見る。 測れないものは改善できません。

最安モデルはタスク次第です。heartbeat なら Gemini Flash-Lite。日常のコーディングなら MiniMax M2.7。信頼性の高い tool-calling なら Haiku。複雑な多段処理なら Sonnet。本当に難しい問題だけ Opus。それ以外には使いません。

多くの読者は、Config A か B を使えば、たった半日で50〜70%の節約を実感できます。85〜90%の完全削減には、モデルルーティング、見えない消費源の対策、.clawignore、セッション運用の徹底をすべて積み重ねる必要がありますが、十分に実現可能で、効果も長続きします。

FAQ

1. OpenClaw の月額コストはいくらですか?

設定、利用量、モデル選択で大きく変わります。ライトユーザー(1日約10件)は、最適化すれば月5〜30ドル程度、デフォルトのままだと100ドル超になることが多いです。中程度のユーザー(1日約50件)は月90〜400ドル程度。ヘビーユーザーはデフォルトだと に達することもあり、記録上の極端な例では1か月で5,623ドルというケースもありました。Anthropic の内部テレメトリによると、中央値は だとされています。

2. コーディングで十分使える、OpenClaw の最安モデルは何ですか?

が、総合的には最も使いやすい日常用モデルです。tool-calling の安定性も高く、SWE-Pro 56.22、価格はおよそ $0.28 / $1.10(100万トークンあたり)です。heartbeat や簡単な参照なら、$0.10 / $0.40 の Gemini 2.5 Flash-Lite もかなり有力です。Claude Haiku 4.5 は、Sonnet の価格を払わずに高い tool-calling 性能が欲しいときの、信頼できる中位フォールバックです。

3. OpenClaw で無料枠のモデルは使えますか?

技術的には使えます。GPT-OSS-120B は OpenRouter の :free タグや NVIDIA Build で無料です。Gemini Flash-Lite にも無料枠があります(15 RPM、1日1,000リクエスト)。DeepSeek も登録時に を提供しています。ただし無料枠はレート制限が厳しく、速度も遅めで、提供状況も安定しません。日常利用なら、100万トークンあたり数円レベルの有料低価格モデルの方が、はるかに信頼できます。

4. /model で会話途中にモデルを切り替えると、コンテキストは消えますか?

いいえ。/model はセッションの文脈をすべて保持したまま、次のターンのモデルだけを切り替えます。履歴はそのまま残ります。これは OpenClaw の概念ドキュメントでも確認されており、Claude Code でも同じ挙動です。短い質問には Haiku、複雑な作業には Sonnet、というふうに自由に行き来しても問題ありません。

5. 今日すぐに OpenClaw の請求額を下げる最速の方法は?

関係ない作業の間で /clear を使うことです。無料で、5秒ででき、API 呼び出しのたびに再送される会話履歴を消せます。ある実際のセッションでは、 もの履歴が蓄積されており、それが毎ターン再送・再課金されていました。新しい作業を始める前にこれを消すのが、最も費用対効果の高い習慣です。

Thunderbit で AI Web Scraping を試す
Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
Openclaw のトークン使用量Openclaw の最安モデル
目次

Thunderbit を試す

たった2クリックでリードやその他のデータを取得。AI 搭載。

Thunderbit を入手 無料で使えます
AIでデータを抽出
Google Sheets、Airtable、Notion へ簡単にデータを転送
PRODUCT HUNT#1 Product of the Week