- Rechercher sur le web pour ancrer l’IA sur des données du monde réel (faits, documents, événements)
- Obtenir le contenu markdown de n’importe quelle page web
- Découvrir et filtrer les URL pertinentes au sein d’un site web.
Installation
Vous devez avoir une clé API. Obtenez la clé API sur https://www.olostep.com/dashboard/api-keys. Vous pouvez soit utiliser notre URL hébergée à distance, soit exécuter le serveur localement.URL hébergée à distance
Exécution avec npx
Installation manuelle
Exécution sur Claude Desktop
Ajoutez ceci à votre claude_desktop_config.json :Exécution sur Claude Code
Exécutez ceci dans votre terminalExécution sur Cursor
Configuration manuelle
Pour configurer Olostep MCP dans Cursor :- Ouvrez les paramètres de Cursor (cliquez sur l’icône des paramètres en haut à droite de l’IDE)
- Cliquez sur MCP
- Cliquez sur ”+ Ajouter un nouveau serveur MCP global”
- Entrez ce qui suit dans le fichier mcp.json :
- N’oubliez pas de remplacer
YOUR_API_KEYpar votre clé API réelle que vous pouvez obtenir depuis le tableau de bord Olostep - Vous pouvez maintenant fermer l’onglet des paramètres. Si nécessaire, actualisez la liste des serveurs MCP pour voir les nouveaux outils.
Si vous utilisez Windows et rencontrez des problèmes, essayez cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
La prochaine fois que vous utiliserez Cursor, il utilisera automatiquement le MCP d’Olostep lorsque nécessaire. Vous pouvez également demander explicitement à utiliser le MCP d’Olostep lorsque vous avez besoin d’informations à jour du web.
Exécution sur Windsurf
Ajoutez ceci à votre ./codeium/windsurf/model_config.json :Outils disponibles
- scrape_website : Extraire le contenu d’une URL unique. Prend en charge plusieurs formats et le rendu JavaScript.
- search_web : Rechercher sur le web pour une requête donnée et retourner des résultats structurés (non-IA, basé sur un parseur).
- answers : Rechercher sur le web et retourner des réponses alimentées par l’IA dans la structure JSON souhaitée, avec sources et citations.
- batch_scrape_urls : Extraire jusqu’à 10 000 URL en même temps. Parfait pour l’extraction de données à grande échelle.
- get_batch_results : Récupérer le statut et le contenu extrait pour un travail par lots. Si terminé, récupère les éléments et le contenu pour chaque URL.
- create_crawl : Découvrir et extraire de manière autonome des sites web entiers en suivant les liens à partir d’une URL de départ.
- create_map : Obtenir toutes les URL d’un site web. Extraire les URL pour la découverte et l’analyse du site.
- get_webpage_content : Récupérer le contenu d’une page web au format markdown.
- get_website_urls : Rechercher et récupérer les URL pertinentes d’un site web.
- google_search : Récupérer des données structurées à partir des résultats de recherche Google.