Salı günü öğle yemeğine bile çıkmadan OpenRouter panelimde 47 dolar harcandığını gördüm. Belki bir düzine kodlama işi yapmıştım — öyle akıl almaz bir şey de değil, birkaç refaktör ve ufak hata düzeltmesi. O an fark ettim ki OpenClaw’ın varsayılan ayarları, arka plandaki kalp atışı ping’leri de dahil olmak üzere neredeyse tüm etkileşimleri sessizce Claude Opus üzerinden yönlendiriyordu; üstelik milyon token başına 15 doların üzerindeydi.
Benzer sürprizlerle karşılaştıysan — forumlara bakılırsa birçok kişi karşılaşıyor (“Zaten 40 dolar harcadım, üstelik pek de kullanmadım,” diye yazmış bir kullanıcı) — bu rehber, aylık harcamamı yaklaşık %90 azaltmak için uyguladığım tam denetim ve optimizasyon sürecini adım adım anlatıyor. Sadece “daha ucuz bir modele geç” demiyor; token’ların gerçekten nereye gittiğini sistemli biçimde analiz etmeyi, nasıl izleneceğini, hangi bütçe dostu modellerin gerçek ajan görevlerinde ayakta kaldığını ve bugün kopyalayıp kullanabileceğin üç hazır yapılandırmayı kapsıyor. Tüm süreç bir öğleden sonramı aldı.
OpenClaw Token Kullanımı Nedir ve Varsayılan Olarak Neden Bu Kadar Yüksektir?
Token’lar, OpenClaw’daki tüm yapay zeka etkileşimlerinin faturalandırma birimidir. Bunları küçük metin parçaları gibi düşünebilirsin — kabaca bir token yaklaşık 4 İngilizce karaktere denk gelir. Gönderdiğin her mesaj, aldığın her yanıt, çalışan her arka plan işlemi: hepsi token olarak ücretlendirilir.
Sorun şu ki OpenClaw’ın varsayılan ayarları maksimum yetenek için optimize edilmiştir, minimum maliyet için değil. Kutudan çıktığı haliyle birincil model anthropic/claude-opus-4-5 olarak ayarlanır — mevcut en pahalı seçenek. Kalp atışı ping’leri mi? Onlar da Opus üzerinde çalışır. Yan işleri üstlenmek için açılan alt ajanlar mı? Onlar da Opus. Bir kalp atışı ping’i için Opus kullanmak, küçük bir bandaj yapıştırmak için beyin cerrahı tutmaya benzer. Teknik olarak mümkün, ama fatura açısından tam bir felaket.
Çoğu kullanıcı, basit arka plan işleri için premium ücret ödediğinin farkında değildir. Varsayılan yapılandırma neredeyse her şey için, her zaman en iyi modeli kullanmak istediğini varsayar — ve buna göre ücret yansıtır.
OpenClaw Token Kullanımını Azaltmak Neden Sadece Paradan Fazlasını Kazandırır?
En görünür fayda maliyet düşüşüdür. Ama bunun zamanla birleşen başka artıları da vardır.
Daha ucuz modeller çoğu zaman daha hızlıdır. Gemini 2.5 Flash-Lite yaklaşık işlerken Opus yaklaşık 51 token civarındadır — bu, her etkileşimde 4 kat hız artışı demek. Cerebras üzerindeki GPT-OSS-120B ise seviyesine ulaşır; yani Opus’tan kabaca 35 kat daha hızlıdır. 50’den fazla araç çağrısı içeren bir ajan döngüsünde bu hız farkı, her turda Opus’un can sıkıcı 13,6 saniyelik ilk token süresini beklemek yerine işi dakikalar içinde bitirmek anlamına gelir.
Ayrıca hız limitlerine takılmadan önce daha fazla boşluğun olur, throttling yüzünden bekleyen oturum sayısı azalır ve faturayı düşünerek gerilmeden kullanımı ölçeklendirebilirsin.
Farklı kullanım profillerine göre tahmini tasarruflar:
| Kullanıcı Profili | Varsayılanla Tahmini Aylık Harcama | Tam Optimizasyon Sonrası | Aylık Tasarruf |
|---|---|---|---|
| Hafif (~günde 10 sorgu) | ~$100 | ~$12 | ~%88 |
| Orta (~günde 50 sorgu) | ~$500 | ~$90 | ~%82 |
| Yoğun (~günde 200+ sorgu) | ~$1,750 | ~$220 | ~%87 |
Bunlar varsayım değil. Bir geliştirici, gerçek bir %90 kesintiyle düştüğünü belgeledi — bunu da bu rehberin ilerleyen bölümlerinde anlattığım görünmeyen tüketimleri azaltma taktikleriyle birlikte model yönlendirmeyi kullanarak başardı.
OpenClaw Token Kullanım Anatomisi: Her Token Gerçekte Nereye Gidiyor?
Çoğu optimizasyon rehberinin atladığı kısım burası; oysa en kritik bölüm de burası. Görmediğin şeyi düzeltemezsin.

Birkaç oturumu denetledim ve ile topluluk /context dökümlerini karşılaştırarak tipik tek bir kodlama görevi için bir token defteri çıkardım. Yaklaşık 20.000 token’ın dağılımı şöyleydi:
| Token Kategorisi | Tipik Toplam İçindeki Payı | Örnek (1 kodlama görevi) | Kontrol Edebilir misiniz? |
|---|---|---|---|
| Bağlam birikimi (her çağrıda yeniden gönderilen sohbet geçmişi) | ~%40–50 | ~9.000 token | Evet — /clear, /compact, daha kısa oturumlar |
| Araç çıktısı saklama (kabuk çıktısı, dosya okumaları geçmişte tutulur) | ~%20–30 | ~5.000 token | Evet — daha küçük okumalar, daha dar araç kapsamı |
| Sistem isteminin yeniden gönderimi (~15K temel) | ~%10–15 | ~3.000 token | Kısmen — önbellek okumaları 0.1x oranında ücretlenir |
| Çok turlu akıl yürütme (zincirleme araç çağrısı döngüleri) | ~%10–15 | ~2.500 token | Model seçimi + daha iyi istemler |
| Kalp atışı / canlı tutma ping’leri | ~%5–10 | ~1.500 token | Evet — yapılandırma değişikliği |
| Alt ajan çağrıları | ~%5–10 | ~1.500 token | Evet — model yönlendirme |
Tek ve en büyük kalem — bağlam birikimi — her API çağrısında sohbet geçmişinin yeniden gönderilmesidir. model henüz hiçbir yanıt vermemişken yalnızca Messages kovasında 185.400 token görünüyordu. Sistem istemi ve araçlar bunun üstüne yaklaşık 35.800 token sabit yük ekliyordu.
Çıkarım şu: Alakasız işler arasında oturumları temizlemiyorsan, her turda tüm sohbet geçmişini yeniden iletmenin bedelini ödüyorsun.
OpenClaw Token Kullanımı Nasıl İzlenir? Göremediğini Azaltamazsın
Bir şey değiştirmeden önce token’larının nereye gittiğini görünür hale getir. Doğrudan “daha ucuz model kullan” demek, hiç tartılmadan kilo vermeye çalışmak gibidir.
OpenRouter Panelini Kontrol Et
Eğer yönlendirmeyi OpenRouter üzerinden yapıyorsan, kurulum gerektirmeyen en kolay paneldir. Model, sağlayıcı, API anahtarı ve zaman aralığına göre filtreleyebilirsin. Usage Accounting görünümü her istekte prompt, completion, reasoning ve cache’lenmiş token’ları ayrı ayrı gösterir. Daha uzun süreli analiz için dışa aktarma düğmesi de vardır (CSV veya PDF).
Bakman gereken şey şudur: en çok token’ı hangi model tüketmiş ve heartbeat ya da alt ajan istekleri beklenmedik derecede büyük satırlar olarak mı görünüyor.
Yerel API Log’larını Denetle
OpenClaw oturum verisini ~/.openclaw/agents.main/sessions/sessions.json içinde tutar; burada oturum başına totalTokens bilgisi bulunur. Gerçek zamanlı istek bazlı loglama için openclaw logs --follow --json komutunu da çalıştırabilirsin.
Dikkate değer bir uyarı: , bu yüzden panel eski, compaction öncesi değerleri gösterebilir. Kayıtlı toplamlar yerine /status ve /context detail çıktısına güvenin.
Üçüncü Taraf Takip Araçları Kullan (Orta ve Yoğun Kullanıcılar İçin)
LiteLLM proxy, 100’den fazla sağlayıcının önüne OpenAI uyumlu bir uç nokta koyar ve . En güçlü tarafı: /clear sonrasında bile devam eden sıkı anahtar bazlı bütçeler; kontrolden çıkan bir alt ajan belirlediğin limiti aşamaz.
Helicone ise daha da basittir — ile ilişkili istekleri gruplayan bir Sessions görünümü sunar. 8+ alt ajan çağrısına yayılan tek bir “bu hatayı düzelt” istemi, gerçek toplam maliyetiyle tek satır bir oturum olarak görünür. .
OpenClaw İçinde Hızlı Kontrol Komutları
Günlük izleme için oturum içi dört komut yeterlidir:
/status— bağlam kullanımını, son giriş/çıkış token’larını ve tahmini maliyeti gösterir/usage full— her yanıtın altında kullanım özetini verir/context detail— dosya, beceri ve araç bazında token dağılımını gösterir/compact [guidance]— isteğe bağlı odak metniyle compaction’ı zorlar
Yapılandırma değişikliklerinden önce ve sonra /context detail çalıştır. Optimizasyonlarının gerçekten işe yarayıp yaramadığını bu şekilde ölçersin.
OpenClaw En Ucuz Model Karşılaştırması: Hangi Bütçe Dostu LLM Gerçek Ajan İşini Taşıyor?
Çoğu rehber burada hata yapıyor. Bir fiyat tablosu gösterip en ucuz satırı işaret ediyor ve konuyu kapatıyor. Oysa benchmark’lar, gerçek dünyadaki ajan performansını tek başına tahmin etmez — topluluk bunu defalarca ve yüksek sesle dile getirdi. Bir kullanıcının dediği gibi: “benchmark’lar, ajan tabanlı yapay zekada hangisinin en iyi çalıştığını anlamaya pek yardımcı olmuyor.”
Kritik içgörü şu: En ucuz model her zaman en ucuz sonuç değildir. Dört kez başarısız olup yeniden deneyen bir model, ilk denemede başarılı olan orta seviye bir modelden daha pahalıya gelir. Üretim ajan sistemlerinde varsaymak gerekir — beş LLM çağrısı zincirlenmişse ve dördüncü adım başarısız olursa, naif bir yeniden deneme tüm beş adımı baştan çalıştırır.
Aşağıda, sentetik benchmark’lardan değil, gerçek kullanıcı raporlarından türetilmiş “Gerçek Ajan Skoru” ile yetenek matrisi yer alıyor:
| Model | Giriş $/1M | Çıkış $/1M | Araç Çağırma Güvenilirliği | Çok Adımlı Akıl Yürütme | Gerçek Ajan Skoru (1–5) | En İyi Kullanım |
|---|---|---|---|---|---|---|
| Gemini 2.5 Flash-Lite | $0.10 | $0.40 | Karışık — ara sıra döngüye girer | Temel | ⭐2.5 | Heartbeat, basit aramalar |
| GPT-OSS-120B | $0.04 | $0.19 | Yeterli | Yeterli | ⭐3.0 | Bütçe denemeleri, hız kritik işler |
| DeepSeek V3.2 | $0.26 | $0.38 | Tutarsız (6 açık sorun) | İyi | ⭐3.0 | Akıl yürütme ağırlıklı, az araç çağrısı |
| Kimi K2.5 | $0.38 | $1.72 | İyi (":exacto" ile) | Yeterli | ⭐3.5 | Basit-orta seviye kodlama |
| MiniMax M2.5 / M2.7 | $0.28 | $1.10 | İyi | İyi | ⭐4.0 | Genel kodlama için günlük sürücü |
| Claude Haiku 4.5 | $1.00 | $5.00 | Mükemmel | İyi | ⭐4.5 | Güvenilir orta katman yedeği |
| Claude Sonnet 4.6 | $3.00 | $15.00 | Mükemmel | Mükemmel | ⭐5.0 | Karmaşık çok adımlı görevler |
| Claude Opus 4.5/4.6 | $5.00 | $15.00 | Mükemmel | Mükemmel | ⭐5.0 | Sadece en zor problemler için |
DeepSeek ve Gemini Flash’in Araç Çağırmadaki Sınırlarına Dair Uyarı
DeepSeek V3.2 kâğıt üzerinde harika görünüyor — üzerinde %72–74, Sonnet’ten 11–36 kat ucuz. Ancak pratikte Cline, Roo Code, Continue ve NVIDIA NIM genelinde açılmış , araç çağırma davranışının bozulduğunu belgeliyor. Composio’nun bire bir karşılaştırma sonucu net: “.” Zvi Mowshowitz’in kısa yorumu ise şöyle: “.”
Gemini 2.5 Flash’ta da benzer bir boşluk var. Google AI Developers Forum’daki “Very frustrating experience with Gemini 2.5 function calling performance” başlıklı konu, şu cümleyle açılıyor: “.”
OpenRouter önemli bir nüansın altını çiziyor: “.” Ucuz modelleri OpenRouter üzerinden yönlendiriyorsan :exacto etiketine dikkat et — sessiz bir sağlayıcı değişimi, güvenilir görünen ucuz modeli bir gecede pahalı bir yeniden deneme döngüsüne çevirebilir.
Hangi Modeli Ne Zaman Kullanmalı?
- Gemini Flash-Lite: Heartbeat’ler, canlı tutma ping’leri, basit soru-cevap. Çok adımlı araç çağırma için uygun değil.
- MiniMax M2.5/M2.7: Genel kodlama işleri için günlük sürücün. performansını Sonnet’in fiyatının çok küçük bir kısmına sunuyor.
- Claude Haiku 4.5: Ucuz modeller araç çağrılarında zorlandığında güvenilir yedek. Sonnet’e göre yaklaşık 3 kat daha ucuzken çok iyi araç çağırma güvenilirliği sunar.
- Claude Sonnet 4.6: Karmaşık çok adımlı ajan işleri. Paranın karşılığını burada alırsın.
- Claude Opus: Sadece en zor problemler için sakla. Hiçbir şey için varsayılanın olmasın.
(Model fiyatları sık değişir — bir yapılandırmaya bağlanmadan önce güncel oranları veya doğrudan sağlayıcı sayfalarında doğrula.)
Çoğu Rehberin Atladığı Gizli Token Tüketimleri
Forum kullanıcıları belirli özellikleri kapatmanın maliyeti ciddi biçimde düşürdüğünü söylüyor; ancak gördüğüm hiçbir rehber, tüm gizli tüketimleri ve bunların gerçek token etkisini tek bir kontrol listesinde toplamıyor. İşte tam döküm:
This paragraph contains content that cannot be parsed and has been skipped.
Heartbeat tüketimi ayrı bir notu hak ediyor. Varsayılan olarak heartbeat’ler her 30 dakikada bir birincil modelde (Opus) çalışır. isolatedSession: true ayarı bunu çalıştırma başına yaklaşık 100.000 token’dan düşürür — tek kalemde %95–98 azalma.
İki Dakikadan Kısa Sürede En Çok Token Tasarrufu Sağlayan Üç Hızlı Kazanç
Üçü de risksizdir ve iki dakikadan kısa sürer:
-
Alakasız görevler arasında
/clearkullanın (5 saniye). En büyük token tasarrufu budur. Forum konsensüsü, yeni işe başlamadan önce oturum geçmişini temizlemenin tek başına sağladığını söylüyor. /context dökümündeki 185 bin token’lık Messages kovasını hatırla;/clearonu siler. -
Angarya işler için
/model haiku-4.5kullanın (10 saniye). Taktiğe dayalı model geçişi, rutin işlerde sağlar. Haiku; çoğu doğrudan kodlama işini, dosya aramalarını ve commit mesajlarını gayet iyi halleder.
This paragraph contains content that cannot be parsed and has been skipped.
OpenClaw Token Kullanımını Azaltmak İçin Adım Adım: Kopyala-Yapıştır Üç Hazır Yapılandırma
Aşağıda, “sadece başlayayım” seviyesinden “tam optimizasyon paketi”ne kadar uzanan, açıklamalı üç openclaw.json yapılandırması yer alıyor. Her birinde satır içi notlar ve aylık maliyet tahminleri var.
Başlamadan Önce:
- Zorluk: Başlangıç (Config A) → Orta (Config B) → İleri (Config C)
- Gerekli Süre: Config A için ~5 dakika, Config C için ~15 dakika
- İhtiyacın Olanlar: OpenClaw kurulu, bir metin düzenleyici,
~/.openclaw/openclaw.jsonerişimi
Config A: Başlangıç — Sadece Tasarruf Et
Beş satır. Sıfır karmaşıklık. Varsayılan modeli Opus’tan Sonnet’e değiştirir, bellek yükünü kapatır ve heartbeat’leri Haiku’ya izole eder.
1// ~/.openclaw/openclaw.json
2{
3 "agents": {
4 "defaults": {
5 "model": { "primary": "anthropic/claude-sonnet-4-6" }, // Opus yerine — anında 3-5x tasarruf
6 "heartbeat": {
7 "every": "55m", // maksimum cache isabeti için 1 saatlik TTL ile hizala
8 "model": "anthropic/claude-haiku-4-5", // ping için Haiku, Opus değil
9 "isolatedSession": true // ~100k → 2-5k token/çalıştırma
10 }
11 }
12 },
13 "memory": { "enabled": false } // oturum başına ~500-2k token tasarruf
14}
Bunu uyguladıktan sonra ne görmelisin: /status komutunu öncesi ve sonrası çalıştır. İstek başına maliyetin gözle görülür biçimde düşmeli ve OpenRouter Activity sayfanındaki heartbeat kayıtlarında Opus yerine Haiku görünmelidir.
| Kullanım Seviyesi | Varsayılan (Opus) | Config A (Sonnet + Haiku heartbeat) | Tasarruf |
|---|---|---|---|
| Hafif (~günde 10 sorgu) | ~$100 | ~$35 | %65 |
| Orta (~günde 50 sorgu) | ~$500 | ~$250 | %50 |
| Yoğun (~günde 200 sorgu) | ~$1,750 | ~$900 | %49 |
Config B: Orta Seviye — Akıllı Üç Katmanlı Yönlendirme
Gerçek iş için birincil model Sonnet. Alt ajanlar ve compaction için Haiku. Claude sınırlamalara takıldığında bütçe dostu yedek olarak Gemini Flash-Lite. Yedek zincirleri sağlayıcı kesintilerini otomatik yönetir.
1{
2 "agents": {
3 "defaults": {
4 "model": {
5 "primary": "anthropic/claude-sonnet-4-6",
6 "fallbacks": [
7 "anthropic/claude-haiku-4-5", // Sonnet sınırlanırsa
8 "google/gemini-2.5-flash-lite" // son derece ucuz son çare
9 ]
10 },
11 "models": {
12 "anthropic/claude-sonnet-4-6": {
13 "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
14 }
15 },
16 "heartbeat": {
17 "every": "55m", // 55dk < 1 saat cache TTL = cache isabeti
18 "model": "google/gemini-2.5-flash-lite", // ping başına kuruşlar
19 "isolatedSession": true,
20 "lightContext": true // heartbeat çağrılarında minimum bağlam
21 },
22 "subagents": {
23 "maxConcurrent": 4, // varsayılan 8’den aşağı
24 "model": "anthropic/claude-haiku-4-5" // alt ajanların Sonnet’e ihtiyacı yok
25 },
26 "compaction": {
27 "mode": "safeguard",
28 "model": "anthropic/claude-haiku-4-5", // özetler Haiku ile
29 "memoryFlush": { "enabled": true }
30 }
31 }
32 }
33}
Beklenen sonuç: Loglarındaki alt ajan kayıtları artık Haiku fiyatlamasıyla görünmelidir. Heartbeat maliyeti neredeyse sıfıra iner. Yedek zincirin sayesinde bir Claude kesintisi oturumunu durdurmaz — sistem Gemini’ye zarif biçimde düşer.
| Kullanım Seviyesi | Varsayılan | Config B | Tasarruf |
|---|---|---|---|
| Hafif | ~$100 | ~$20 | %80 |
| Orta | ~$500 | ~$150 | %70 |
| Yoğun | ~$1,750 | ~$500 | %71 |
Config C: Güç Kullanıcısı — Tam Optimizasyon Paketi
Alt ajan başına model ataması, Haiku’ya sabitlenmiş bağlam compaction, görüntü yönlendirmesi Gemini Flash’a, sıkı .clawrules + .clawignore, kullanılmayan beceriler kapalı. Bu yapılandırma seni %85–90 tasarruf bandına taşır.
1{
2 "agents": {
3 "defaults": {
4 "workspace": "~/clawd",
5 "model": {
6 "primary": "anthropic/claude-sonnet-4-6",
7 "fallbacks": [
8 "openrouter/anthropic/claude-sonnet-4-6", // yedek olarak farklı sağlayıcı
9 "minimax/minimax-m2-7", // ucuz günlük sürücü yedeği
10 "anthropic/claude-haiku-4-5" // son çare
11 ]
12 },
13 "models": {
14 "anthropic/claude-sonnet-4-6": {
15 "params": { "cacheControlTtl": "1h", "maxTokens": 8192 }
16 },
17 "minimax/minimax-m2-7": {
18 "params": { "maxTokens": 8192 }
19 }
20 },
21 "heartbeat": {
22 "every": "55m",
23 "model": "google/gemini-2.5-flash-lite",
24 "isolatedSession": true,
25 "lightContext": true,
26 "activeHours": "09:00-19:00" // geceleri heartbeat yok
27 },
28 "subagents": {
29 "maxConcurrent": 4,
30 "model": "anthropic/claude-haiku-4-5"
31 },
32 "contextPruning": { "mode": "cache-ttl", "ttl": "1h" },
33 "compaction": {
34 "mode": "safeguard",
35 "model": "anthropic/claude-haiku-4-5",
36 "identifierPolicy": "strict",
37 "memoryFlush": { "enabled": true }
38 },
39 "bootstrapMaxChars": 12000, // varsayılan 20000’den aşağı
40 "imageModel": "google/gemini-3-flash" // görsel işler için ucuz model
41 }
42 },
43 "memory": { "enabled": true, "max_context_tokens": 800 }, // minimum bellek
44 "skills": {
45 "entries": {
46 "web-search": { "enabled": false },
47 "image-generation": { "enabled": false },
48 "audio-transcribe": { "enabled": false }
49 }
50 }
51}
Alt ajan için geçersiz kılma örneği — ~/.openclaw/agents/lint-runner/SOUL.md içine yapıştır:
1---
2name: lint-runner
3description: Lint/format kontrollerini çalıştırır ve basit düzeltmeleri uygular
4tools: [Bash, Read, Edit]
5model: anthropic/claude-haiku-4-5
6---
Minimum uygulanabilir .clawignore — bu tek başına tipik bootstrap boyutunu 150k karakterden 30–50k bandına indirir:
1node_modules/
2dist/
3build/
4.next/
5coverage/
6.venv/
7vendor/
8*.lock
9package-lock.json
10yarn.lock
11pnpm-lock.yaml
12*.min.js
13*.min.css
14**/__snapshots__/
15**/*.snap
| Kullanım Seviyesi | Varsayılan | Config C | Tasarruf |
|---|---|---|---|
| Hafif | ~$100 | ~$12 | %88 |
| Orta | ~$500 | ~$90 | %82 |
| Yoğun | ~$1,750 | ~$220 | %87 |
Bu rakamlar, iki bağımsız gerçek kullanıcı raporuyla uyumludur: Praney Behl’in belgelenen dönüşümü (%90 kesinti) ve LaoZhang vaka çalışmalarındaki kısmi optimizasyonlarla elde edilen sonuçları.
/model Komutuyla OpenClaw Token Kullanımını Anlık Olarak Kontrol Etme
/model komutu, sohbet bağlamını koruyarak bir sonraki tur için aktif modeli değiştirir — sıfırlama yok, geçmiş kaybı yok. Bu, zaman içinde biriken tasarrufların günlük alışkanlığıdır.
Pratik iş akışı:
- Çok dosyalı zorlu bir refaktör üzerinde mi çalışıyorsun? Sonnet’te kal.
- “Bu regex ne yapıyor?” gibi kısa bir soru mu?
/model haikude, sor, sonra geri dönmek için/model sonnetkullan. - Commit mesajı ya da doküman cilası mı?
/model flash-liteyeterli.
openclaw.json içinde commands.aliases altına kısayol adları tanımlayarak (haiku, sonnet, opus, flash) tam sağlayıcı dizelerine eşleyebilirsin. Her geçişte birkaç tuş vuruşu kazandırır.
Matematik şu: günde 50 sorguyu Sonnet’te çalıştırmak yaklaşık 3 dolar/gün eder. Aynı 50 sorguyu Haiku/Sonnet/Opus arasında %70/%20/%10 dağıtmak ise yaklaşık 1,10 dolar/gün eder. Bir ayda bu, 90 dolardan 33 dolara iner — araçları değiştirmeden, sadece alışkanlıkları değiştirerek %63 daha ucuz.
Bonus: OpenClaw Model Fiyatlarını Sağlayıcılar Arasında Thunderbit ile Takip Etmek
OpenRouter, doğrudan Anthropic API, Google AI Studio, DeepSeek, MiniMax gibi bu kadar çok model ve sağlayıcı varken fiyatlar sık sık değişiyor. Anthropic, Opus çıkış fiyatını bir gecede yaklaşık %67 düşürdü. Google, Aralık 2025’te Gemini ücretsiz katman limitlerini oranında revize etti. Statik bir fiyat tablosunu elle güncel tutmak kaybedilecek bir savaştır.
, bunu herhangi bir scraping kodu yazmadan çözer. Bu, tam da bu tür yapılandırılmış veri çıkarımı için geliştirilmiş bir olan AI web scraper’dır.
Benim kullandığım iş akışı:
- OpenRouter model sayfasını Chrome’da aç ve Thunderbit’teki “AI Suggest Fields” özelliğine tıkla. Sayfayı okur ve sütun önerir — model adı, giriş fiyatı, çıkış fiyatı, bağlam penceresi, sağlayıcı.
- Scrape düğmesine bas, ardından doğrudan Google Sheets’e aktar.
- Basit Türkçe ile bir zamanlanmış scraping ayarla — “her pazartesi saat 9’da OpenRouter model listesini yeniden tara” de; bulutta otomatik çalışsın.
Bundan sonra kişisel fiyat takip tablon kendi kendini günceller. Bir model aniden %30 ucuzlarsa — ya da bir sağlayıcı Exacto etiketi alırsa — Pazartesi sabahı tablonun içinde görünür, senin hiçbir şey yapmana gerek kalmaz. Blogumuzda kullanım alanlarını daha ayrıntılı anlattık.
Doğrudan sağlayıcı sayfalarındaki fiyatları (Anthropic, Google, DeepSeek) karşılaştırırken mi? Thunderbit’in alt sayfa taraması, her model bağlantısını detay sayfasına kadar takip eder ve sağlayıcı bazlı oranları çeker — Kimi K2.5’i OpenRouter üzerinden yönlendirmek, üzerinden direkt kullanmaktan daha mı ucuz diye bakmak istediğinde çok işe yarar. Ücretsiz katman ve plan ayrıntıları için göz at.
OpenClaw Token Kullanımını Azaltmanın Temel Çıkarımları
Çerçeve şu: Anla → İzle → Yönlendir → Optimize et.
En yüksek etkili adımlar, önem sırasıyla:
- Varsayılanı Opus yapma. Birincil modeli Sonnet ya da MiniMax M2.7’ye çevir. Bu tek başına 3–5 kat maliyet düşüşü sağlar.
- Heartbeat’leri izole et.
isolatedSession: trueayarla ve heartbeat’leri Gemini Flash-Lite’a yönlendir. Böylece yaklaşık 100 bin token’lık tüketim 2–5 bine iner. - Alt ajanları Haiku’ya yönlendir. Her oluşturma, işe başlamadan önce yaklaşık 20 bin token bağlam yükler. Bunun Opus üzerinde olmasına izin verme.
/clearkomutunu düzenli kullan. Ücretsizdir, 5 saniye sürer ve topluluk görüşüne göre tek başına en çok tasarruf sağlayan adımdır..clawignoreekle.node_modules, lockfile’lar ve build çıktılarını hariç tutmak, bootstrap bağlamını ciddi biçimde azaltır.- Değişikliklerden önce ve sonra
/context detailile ölç. Ölçemediğini iyileştiremezsin.
En ucuz model göreve göre değişir. Heartbeat’ler için Gemini Flash-Lite. Günlük kodlama için MiniMax M2.7. Güvenilir araç çağırma için Haiku. Karmaşık çok adımlı işler için Sonnet. Opus ise gerçekten en zor problemler için — başka hiçbir şey için değil.
Çoğu okuyucu, Config A veya B ile tek bir öğleden sonra içinde %50–70 tasarruf görebilir. Tam %85–90 seviyesi, model yönlendirme, gizli tüketimlerin azaltılması, .clawignore, oturum disiplini gibi tüm parçaların birlikte uygulanmasıyla gelir — ama bu ulaşılabilir bir hedeftir ve kalıcıdır.
SSS
1. OpenClaw ayda ne kadar tutar?
Tamamen yapılandırmana, kullanım yoğunluğuna ve model seçimlerine bağlıdır. Hafif kullanıcılar (~günde 10 sorgu) optimizasyonla genellikle ayda 5–30 dolar harcar; varsayılanlarda ise 100 doların üzerine çıkabilir. Orta kullanıcılar (~günde 50 sorgu) için aralık 90–400 dolar/ay civarındadır. Yoğun kullanıcılar varsayılanlarla seviyesine çıkabilir — belgelenmiş uç bir örnek tek bir ayda 5.623 dolardı. Anthropic’in kendi iç telemetrisi ise ortanca olarak olduğunu gösteriyor.
2. Kodlama için hâlâ iyi çalışan en ucuz OpenClaw modeli hangisi?
genel kullanım için en iyi günlük sürücüdür — iyi araç çağırma güvenilirliği, SWE-Pro 56.22 ve milyon token başına yaklaşık 0,28/1,10 dolar. Heartbeat’ler ve basit aramalar için 0,10/0,40 dolar seviyesindeki Gemini 2.5 Flash-Lite’ı geçmek zor. Claude Haiku 4.5 ise Sonnet fiyatı ödemeden mükemmel araç çağırma ihtiyacı olduğunda güvenilir orta katman yedeğidir.
3. OpenClaw ile ücretsiz katman modellerini kullanabilir miyim?
Teknik olarak evet. GPT-OSS-120B, OpenRouter’ın :free etiketi ve NVIDIA Build üzerinde ücretsizdir. Gemini Flash-Lite ücretsiz katman sunar (dakikada 15 istek, günde 1.000 istek). DeepSeek yeni kayıtta verir. Ancak ücretsiz katmanlarda agresif hız limitleri, daha yavaş performans ve kararsız erişilebilirlik vardır. Birkaç kuruş/milyon token seviyesindeki ucuz ücretli modeller, düzenli kullanım için çok daha güvenilirdir.
4. /model ile sohbet ortasında model değiştirirsem bağlamım kaybolur mu?
Hayır. /model tam oturum bağlamını korur — sonraki tur, tüm geçmiş intact kalacak şekilde yeni modele yönlendirilir. Bu, OpenClaw’ın kavram dokümantasyonunda doğrulanmıştır ve Claude Code’da da aynı şekilde çalışır. Hızlı sorular için Haiku ile, karmaşık işler için Sonnet ile rahatça geçiş yapabilirsin; hiçbir şey kaybolmaz.
5. OpenClaw faturasını bugün azaltmanın en hızlı yolu nedir?
Alakasız görevler arasında /clear yaz. Ücretsizdir, beş saniye sürer ve her API çağrısında yeniden gönderilen sohbet geçmişini siler. Gerçek bir oturumda birikmiş mesaj geçmişi görülmüştü — ve bunların hepsi her turda yeniden iletilip yeniden ücretlendiriliyordu. Yeni bir işe başlamadan önce bunu temizlemek, oluşturabileceğin en yüksek getirili alışkanlıktır.