Installation
Fähigkeiten
Kern-Datenfähigkeiten
Diese sechs Fähigkeiten sind die Bausteine. Jede macht eine Sache gut, und dein Agent kann sie für komplexe Workflows zusammensetzen.scrape
Jede URL zu sauberem Markdown, HTML, JSON oder Text. Vollständiges Browser-Rendering, Anti-Bot-Umgehung, Geo-Targeting, Browser-Aktionen (klicken, scrollen, tippen) und vorgefertigte Parser für gängige Seitentypen.
search
Drei Modi: KI-synthetisierte Antworten mit Zitaten, rohe Google-SERP-Daten (organische Ergebnisse, PAA, Wissensgraph) und domain-spezifische URL-Entdeckung.
crawl
Beginne mit einer URL, folge Links, scrape jede entdeckte Seite. Setze maximale Seitenanzahl, ein-/ausschließende URL-Muster und kontrolliere die Crawl-Tiefe.
batch
Scrape bis zu 10.000 URLs parallel mit vollständigem Rendering. Markiere jede URL mit
custom_id, um Ergebnisse zu deinen Quellen zurückzuverfolgen.map
Entdecke jede URL auf einer Website, ohne sie zu scrapen. Filtere nach Glob-Mustern, rangiere nach Relevanz der Suchanfrage, begrenze mit
top_n.answers
Stelle eine Frage in einfacher Sprache, erhalte eine KI-synthetisierte Antwort, die auf Live-Webquellen basiert. Übergebe einen
json-Parameter, um strukturierten Output zu erhalten, der einem von dir definierten Schema entspricht.Workflow-Fähigkeiten
Diese sieben Fähigkeiten verketten mehrere Kernoperationen. Sie übernehmen das Denken — dein Agent wählt nur die richtige Fähigkeit für die Aufgabe.research
“Vergleiche die Top 3 ORMs für Node.js” — der Agent durchsucht mehrere Quellen, scrapt Preis- und Feature-Seiten und liefert einen strukturierten Vergleich mit Zitaten und einer Empfehlung.
debug-error
Füge einen Stack-Trace oder eine Fehlermeldung ein. Der Agent durchsucht GitHub-Issues und StackOverflow nach genau diesem Fehler, scrapt die relevanten Threads und liefert eine Lösung, die darauf basiert, was Entwickler mit demselben Problem tatsächlich getan haben.
docs-to-code
Zeige auf eine Dokumentations-URL. Der Agent scrapt die aktuelle API-Referenz und schreibt funktionierenden Integrationscode basierend auf dem, was tatsächlich veröffentlicht ist — nicht auf veralteten Trainingsdaten, die möglicherweise veraltete Methoden referenzieren.
migrate-code
Gib deine aktuelle Version und Zielversion an. Der Agent scrapt den Migrationsleitfaden, extrahiert jede Breaking-Change mit Vorher/Nachher-Mustern und schreibt deinen Code um.
extract-schema
Verwandle jede unstrukturierte Webseite — Produktlisten, Stellenanzeigen, Artikel — in typisiertes JSON, das einer TypeScript-Schnittstelle, einem JSON-Schema oder einem Datenbankmodell entspricht, das du bereitstellst.
integrate
Erkennt deinen Stack (Sprache, Framework, KI-Toolkit) automatisch und schreibt eine vollständige Olostep-SDK-Integration: Installationsbefehle, Client-Setup, Tool-Verkabelung und ein Verifizierungsschritt.
setup
Konfiguriere den Olostep-API-Schlüssel und überprüfe die Verbindung. Beinhaltet Fehlerbehebung für häufige Setup-Probleme.
MCP-Tools
Der gebündelte MCP-Server (olostep-mcp) gibt deinem Agenten 9 Tools, die er direkt aufrufen kann. Verwende diese, wenn du eine feinere Kontrolle benötigst, als die Workflow-Fähigkeiten bieten.
| Tool | Was es macht |
|---|---|
scrape_website | Scrapt eine einzelne URL zu Markdown, HTML, JSON oder Text |
get_webpage_content | Ruft eine Webseite als sauberes, LLM-bereites Markdown ab |
search_web | Durchsucht das Live-Web, erhält KI-synthetisierte Antworten |
google_search | Strukturierte Google-SERP-Daten — organische Ergebnisse, PAA, Wissensgraph |
answers | Stelle eine Frage, erhalte eine zitierte Antwort mit optionalem strukturiertem JSON-Output |
batch_scrape_urls | Scrapt bis zu 10.000 URLs parallel mit vollständigem Rendering |
create_crawl | Crawlt eine Website, indem es Links von einer Start-URL folgt |
create_map | Entdeckt alle URLs auf einer Website, filterbar nach Muster und Anfrage |
get_website_urls | Findet und ruft relevante URLs von einer bestimmten Domain ab |
Wie das in der Praxis aussieht
”Warum schlägt das fehl?” — Debuggen aus dem Live-Web
Du fügstECONNRESET beim Aufrufen des Stripe-Webhook-Endpunkts in deinen Agenten ein. Er durchsucht GitHub-Issues und StackOverflow nach genau diesem Fehler, scrapt die drei relevantesten Threads und liefert eine konkrete Lösung — nicht “überprüfe deine Netzwerkeinstellungen”, sondern die tatsächliche Timeout-Konfiguration, die es für andere Entwickler gelöst hat, die auf dasselbe Problem gestoßen sind.
”Schreibe die Integration” — Code aus aktuellen Dokumentationen, nicht aus veralteten Trainingsdaten
Du musst eine Zahlungs-API integrieren. Die Fähigkeitdocs-to-code scrapt die aktuelle API-Referenz — die heute veröffentlichte, nicht die Version, auf der dein Modell vor sechs Monaten trainiert wurde — und schreibt funktionierenden Code mit den Parametern und Endpunkten, die tatsächlich existieren.
”Welche soll ich verwenden?” — Strukturierte Tool-Vergleiche
Bewertest du ORMs? Vergleichst du Auth-Anbieter? Die Fähigkeitresearch durchsucht mehrere Quellen, scrapt echte Preis-Seiten und Feature-Matrizen und liefert eine strukturierte Vergleichstabelle mit Zitaten. Du erhältst eine Empfehlung, die auf dem basiert, was tatsächlich auf der Website jedes Produkts steht, nicht auf der Popularität der Trainingsdaten.
Baue eine RAG-Pipeline von jeder Dokumentationsseite
Extrahiere strukturierte Daten im großen Maßstab
Migriere zu einer neuen Framework-Version
Du aktualisierst von Next.js 13 auf 15. Die Fähigkeitmigrate-code scrapt den offiziellen Migrationsleitfaden, extrahiert jede Breaking-Change mit Vorher/Nachher-Code-Mustern und schreibt deine Dateien um — basierend auf der echten Dokumentation, nicht auf der besten Vermutung des Modells.
Vorgefertigte Parser
Übergebe denparser-Parameter an jeden Scrape-Aufruf und erhalte typisiertes JSON zurück, anstatt rohen Inhalts. Keine Schema-Definition erforderlich — diese übernehmen die Extraktion für dich.
| Parser | Gibt zurück |
|---|---|
@olostep/google-search | Organische Ergebnisse, Wissensgraph, People Also Ask |
@olostep/amazon-it-product | Preis, Bewertung, Features, Verfügbarkeit |
@olostep/extract-emails | Jede auf der Seite gefundene E-Mail-Adresse |
@olostep/extract-calendars | Strukturierte Kalenderereignisse |
@olostep/extract-socials | Links zu sozialen Medienprofilen |
Links
Auf ClawHub installieren
Plugin-Auflistung, Versionsverlauf und Ein-Kommando-Installation
API-Schlüssel erhalten
500 kostenlose Anfragen/Monat, keine Kreditkarte erforderlich
MCP-Server-Dokumentation
Vollständige MCP-Server-Einrichtung für Cursor, Claude Desktop und andere Clients
API-Referenz
Vollständige Endpunktdokumentation mit Beispielen