Intégrations
LlamaIndex
Branche Thunderbit dans un pipeline LlamaIndex en tant que Reader ou Tool
LlamaIndex les appelle "Readers" plutôt que loaders, mais le pattern est identique à LangChain — Thunderbit produit du Markdown propre, LlamaIndex le découpe et l'indexe.
Installation
pip install llama-index-core httpxComme Reader
from llama_index.core import Document
import httpx
API = "https://openapi.thunderbit.com/openapi/v1"
H = {"Authorization": "Bearer YOUR_API_KEY"}
class ThunderbitReader:
def load_data(self, urls: list[str]) -> list[Document]:
job = httpx.post(f"{API}/batch/distill",
headers=H,
json={"urls": urls,
"include": ["metadata"]}).json()
# poll until COMPLETED — see Batch Job Lifecycle guide
return [
Document(text=r["markdown"],
metadata={"source": r["url"], **r.get("metadata", {})})
for r in job["data"]["results"] if r["status"] == "SUCCEEDED"
]
docs = ThunderbitReader().load_data(["https://docs.example.com"])Branche dans VectorStoreIndex.from_documents(docs) comme d'habitude.
Comme Tool d'agent (FunctionTool)
from llama_index.core.tools import FunctionTool
def read_url(url: str) -> str:
"""Fetch a URL and return clean Markdown."""
resp = httpx.post(f"{API}/distill",
headers=H,
json={"url": url, "renderMode": "basic"},
timeout=60.0)
resp.raise_for_status()
return resp.json()["data"]["markdown"]
read_tool = FunctionTool.from_defaults(fn=read_url)Liens connexes
Cette intégration est en cours d'extension avec un package llama-index-readers-thunderbit — reviens bientôt.