- Het web doorzoeken om AI te baseren op real-world data (feiten, documenten, gebeurtenissen)
- De markdown-inhoud van elke webpagina ophalen
- Relevante URL’s binnen een website ontdekken en filteren.
Installatie
Je hebt een API-sleutel nodig. Verkrijg de API-sleutel van https://www.olostep.com/dashboard/api-keys. Je kunt onze extern gehoste URL gebruiken of de server lokaal draaien.Extern gehoste URL
Uitvoeren met npx
Handmatige Installatie
Uitvoeren op Claude Desktop
Voeg dit toe aan je claude_desktop_config.json:Uitvoeren op Claude Code
Voer dit uit in je terminalUitvoeren op Cursor
Handmatige configuratie
Om Olostep MCP in Cursor te configureren:- Open Cursor-instellingen (klik op het instellingenicoon rechtsboven in de IDE)
- Klik op MCP
- Klik op ”+ Voeg nieuwe globale MCP Server toe”
- Voer het volgende in het mcp.json-bestand in:
- Vergeet niet
YOUR_API_KEYte vervangen door je eigen API-sleutel die je kunt verkrijgen van het Olostep dashboard - Je kunt nu het instellingen tabblad sluiten. Indien nodig, vernieuw de MCP-serverlijst om de nieuwe tools te zien.
Als je Windows gebruikt en problemen ondervindt, probeer dan cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
De volgende keer dat je Cursor gebruikt, zal het automatisch de Olostep MCP gebruiken wanneer dat nodig is. Je kunt ook expliciet vragen om de Olostep MCP te gebruiken wanneer je actuele informatie van het web nodig hebt.
Uitvoeren op Windsurf
Voeg dit toe aan je ./codeium/windsurf/model_config.json:Beschikbare Tools
- scrape_website: Haal inhoud op van een enkele URL. Ondersteunt meerdere formaten en JavaScript-rendering.
- search_web: Doorzoek het web voor een bepaalde zoekopdracht en geef gestructureerde resultaten terug (niet-AI, parser-gebaseerd).
- answers: Doorzoek het web en geef AI-gestuurde antwoorden terug in de JSON-structuur die je wilt, met bronnen en citaten.
- batch_scrape_urls: Scrape tot 10k URL’s tegelijkertijd. Perfect voor grootschalige data-extractie.
- get_batch_results: Haal de status en gescrapete inhoud op voor een batchtaak. Als voltooid, haalt het items op en haalt inhoud op voor elke URL.
- create_crawl: Ontdek en scrape zelfstandig volledige websites door links te volgen vanaf een start-URL.
- create_map: Verkrijg alle URL’s op een website. Haal URL’s op voor ontdekking en site-analyse.
- get_webpage_content: Haal de inhoud van een webpagina op in markdown-formaat.
- get_website_urls: Zoek en haal relevante URL’s op van een website.