- Das Web zu durchsuchen, um KI mit realen Daten (Fakten, Dokumente, Ereignisse) zu untermauern
- Den Markdown-Inhalt jeder Webseite zu erhalten
- Relevante URLs innerhalb einer Website zu entdecken und herauszufiltern.
Installation
Du benötigst einen API-Schlüssel. Hole dir den API-Schlüssel von https://www.olostep.com/dashboard/api-keys. Du kannst entweder unsere gehostete URL verwenden oder den Server lokal ausführen.Gehostete URL
Ausführen mit npx
Manuelle Installation
Ausführen auf Claude Desktop
Füge dies zu deiner claude_desktop_config.json hinzu:Ausführen auf Claude Code
Führe dies in deinem Terminal ausAusführen auf Cursor
Manuelle Einrichtung
Um Olostep MCP in Cursor zu konfigurieren:- Öffne die Cursor-Einstellungen (klicke auf das Zahnradsymbol oben rechts in der IDE)
- Klicke auf MCP
- Klicke auf ”+ Neuen globalen MCP Server hinzufügen”
- Gib folgendes in die mcp.json Datei ein:
- Vergiss nicht,
DEIN_API_KEYmit deinem tatsächlichen API-Schlüssel zu ersetzen, den du vom Olostep Dashboard erhalten kannst. - Du kannst jetzt den Einstellungs-Tab schließen. Falls nötig, aktualisiere die MCP-Serverliste, um die neuen Werkzeuge zu sehen.
Wenn du Windows verwendest und Probleme hast, versuche cmd /c "set OLOSTEP_API_KEY=dein-api-schlüssel && npx -y olostep-mcp"
Beim nächsten Mal, wenn du Cursor verwendest, wird es automatisch das Olostep MCP nutzen, wenn es benötigt wird. Du kannst auch explizit anfordern, das Olostep MCP zu verwenden, wenn du aktuelle Informationen aus dem Web benötigst.
Ausführen auf Windsurf
Füge dies zu deiner ./codeium/windsurf/model_config.json hinzu:Verfügbare Werkzeuge
- scrape_website: Extrahiere Inhalte von einer einzelnen URL. Unterstützt mehrere Formate und JavaScript-Rendering.
- search_web: Durchsuche das Web nach einer bestimmten Anfrage und erhalte strukturierte Ergebnisse (nicht KI-basiert, parser-basiert).
- answers: Durchsuche das Web und erhalte KI-gestützte Antworten im gewünschten JSON-Format, mit Quellen und Zitaten.
- batch_scrape_urls: Scrape bis zu 10.000 URLs gleichzeitig. Perfekt für groß angelegte Datenextraktion.
- get_batch_results: Rufe den Status und die gescrapten Inhalte für einen Batch-Job ab. Wenn abgeschlossen, werden Elemente abgerufen und Inhalte für jede URL geholt.
- create_crawl: Entdecke und scrape autonom ganze Websites, indem du Links von einer Start-URL folgst.
- create_map: Erhalte alle URLs auf einer Website. Extrahiere URLs zur Entdeckung und Analyse der Website.
- get_webpage_content: Rufe den Inhalt einer Webseite im Markdown-Format ab.
- get_website_urls: Suche und rufe relevante URLs von einer Website ab.