- Het web te doorzoeken om AI te baseren op real-world data (feiten, documenten, evenementen)
- De markdown-inhoud van elke webpagina te verkrijgen
- Relevante URL’s binnen een website te ontdekken en te filteren.
Installatie
Je hebt een API-sleutel nodig. Verkrijg de API-sleutel van https://www.olostep.com/dashboard/api-keys. Je kunt onze extern gehoste URL gebruiken of de server lokaal draaien.Extern gehoste URL
Uitvoeren met npx
Handmatige Installatie
Uitvoeren op Claude Desktop
Voeg dit toe aan je claude_desktop_config.json:Uitvoeren op Claude Code
Voer dit uit in je terminalUitvoeren op Cursor
Handmatige configuratie
Om Olostep MCP in Cursor te configureren:- Open Cursor-instellingen (klik op het instellingenpictogram rechtsboven in de IDE)
- Klik op MCP
- Klik op ”+ Nieuwe globale MCP Server toevoegen”
- Voer het volgende in het mcp.json-bestand in:
- Vergeet niet
YOUR_API_KEYte vervangen door je daadwerkelijke API-sleutel die je kunt krijgen van het Olostep dashboard - Je kunt nu het instellingen-tabblad sluiten. Indien nodig, vernieuw de MCP-serverlijst om de nieuwe tools te zien.
Als je Windows gebruikt en problemen ondervindt, probeer dan cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
De volgende keer dat je Cursor gebruikt, zal het automatisch de Olostep MCP gebruiken wanneer nodig. Je kunt ook expliciet verzoeken om de Olostep MCP te gebruiken wanneer je actuele informatie van het web nodig hebt.
Uitvoeren op Windsurf
Voeg dit toe aan je ./codeium/windsurf/model_config.json:Beschikbare Tools
- scrape_website: Haal inhoud op van een enkele URL. Ondersteunt meerdere formaten en JavaScript-rendering.
- search_web: Doorzoek het web voor een gegeven zoekopdracht en retourneer gestructureerde resultaten (niet-AI, parser-gebaseerd).
- answers: Doorzoek het web en retourneer AI-gestuurde antwoorden in de gewenste JSON-structuur, met bronnen en citaten.
- batch_scrape_urls: Scrape tot 10k URL’s tegelijkertijd. Perfect voor grootschalige data-extractie.
- get_batch_results: Haal de status en geschraapte inhoud op voor een batchtaak. Als voltooid, haalt items op en verkrijgt inhoud voor elke URL.
- create_crawl: Ontdek en scrape zelfstandig volledige websites door links te volgen vanaf een start-URL.
- create_map: Verkrijg alle URL’s op een website. Extraheer URL’s voor ontdekking en site-analyse.
- get_webpage_content: Haal de inhoud van een webpagina op in markdown-formaat.
- get_website_urls: Zoek en haal relevante URL’s op van een website.
- google_search: Haal gestructureerde data op uit Google-zoekresultaten.