Installation
Compétences
Compétences de base en données
Ces six compétences sont les fondations. Chacune fait bien une chose, et votre agent peut les composer pour des flux de travail complexes.scrape
N’importe quelle URL vers du markdown propre, HTML, JSON ou texte. Rendu complet du navigateur, contournement anti-bot, ciblage géographique, actions du navigateur (cliquer, faire défiler, taper), et analyseurs préconstruits pour les types de sites courants.
search
Trois modes : réponses synthétisées par l’IA avec citations, données brutes de Google SERP (résultats organiques, PAA, graphe de connaissances), et découverte d’URL à portée de domaine.
crawl
Commencez à partir d’une URL, suivez les liens, extrayez chaque page découverte. Définissez un nombre maximum de pages, incluez/excluez des modèles d’URL, et contrôlez la profondeur de l’exploration.
batch
Extrayez jusqu’à 10 000 URLs en parallèle avec un rendu complet. Étiquetez chaque URL avec
custom_id pour mapper les résultats à vos sources.map
Découvrez chaque URL sur un site web sans en extraire aucune. Filtrez par motifs globaux, classez par pertinence de la requête de recherche, limitez avec
top_n.answers
Posez une question en langage clair, obtenez une réponse synthétisée par l’IA basée sur des sources web en direct. Passez un paramètre
json pour obtenir une sortie structurée correspondant à tout schéma que vous définissez.Compétences de flux de travail
Ces sept compétences enchaînent plusieurs opérations de base ensemble. Elles gèrent la réflexion — votre agent choisit simplement la bonne compétence pour le travail.research
“Comparez les 3 meilleurs ORM pour Node.js” — l’agent recherche plusieurs sources, extrait les pages de tarification et de fonctionnalités, et renvoie une comparaison structurée avec des citations et une recommandation.
debug-error
Collez une trace de pile ou un message d’erreur. L’agent recherche les problèmes GitHub et StackOverflow pour cette erreur exacte, extrait les fils pertinents, et renvoie une solution basée sur ce que les développeurs ayant rencontré le même problème ont réellement fait.
docs-to-code
Pointez vers une URL de documentation. L’agent extrait la référence API actuelle et écrit du code d’intégration fonctionnel à partir de ce qui est réellement publié — pas à partir de données de formation obsolètes qui peuvent référencer des méthodes dépréciées.
migrate-code
Donnez-lui votre version actuelle et la version cible. L’agent extrait le guide de migration, extrait chaque changement majeur avec des modèles avant/après, et réécrit votre code pour correspondre.
extract-schema
Transformez n’importe quelle page web non structurée — listes de produits, offres d’emploi, articles — en JSON typé correspondant à une interface TypeScript, un schéma JSON ou un modèle de base de données que vous fournissez.
integrate
Détecte automatiquement votre pile (langage, framework, outil AI) et écrit une intégration complète du SDK Olostep : commandes d’installation, configuration du client, câblage des outils, et une étape de vérification.
setup
Configurez la clé API Olostep et vérifiez la connexion. Inclut le dépannage des problèmes d’installation courants.
Outils MCP
Le serveur MCP intégré (olostep-mcp) donne à votre agent 9 outils qu’il peut appeler directement. Utilisez-les lorsque vous avez besoin d’un contrôle précis au-delà de ce que les compétences de flux de travail fournissent.
| Outil | Ce qu’il fait |
|---|---|
scrape_website | Extraire une URL unique en markdown, HTML, JSON ou texte |
get_webpage_content | Récupérer une page web en markdown propre, prêt pour LLM |
search_web | Rechercher sur le web en direct, obtenir des réponses synthétisées par l’IA |
google_search | Données structurées de Google SERP — résultats organiques, PAA, graphe de connaissances |
answers | Poser une question, obtenir une réponse citée avec une sortie JSON structurée optionnelle |
batch_scrape_urls | Extraire jusqu’à 10 000 URLs en parallèle avec un rendu complet |
create_crawl | Explorer un site web en suivant les liens à partir d’une URL de départ |
create_map | Découvrir toutes les URLs sur un site web, filtrables par motif et requête |
get_website_urls | Trouver et récupérer des URLs pertinentes à partir d’un domaine spécifique |
À quoi cela ressemble-t-il en pratique
”Pourquoi cela échoue-t-il ?” — Déboguer à partir du web en direct
Vous collezECONNRESET lors de l'appel du point de terminaison du webhook Stripe dans votre agent. Il recherche les problèmes GitHub et StackOverflow pour cette erreur exacte, extrait les trois fils les plus pertinents, et renvoie une solution concrète — pas “vérifiez vos paramètres réseau”, mais la configuration de délai d’attente réelle qui l’a résolue pour d’autres développeurs confrontés au même mur.
”Écrire l’intégration” — Code à partir de la documentation actuelle, pas de données de formation obsolètes
Vous devez intégrer une API de paiement. La compétencedocs-to-code extrait la référence API actuelle — celle publiée aujourd’hui, pas la version sur laquelle votre modèle a été formé il y a six mois — et écrit du code fonctionnel en utilisant les paramètres et points de terminaison qui existent réellement.
”Lequel devrais-je utiliser ?” — Comparaisons structurées d’outils
Évaluez les ORM ? Comparez les fournisseurs d’authentification ? La compétenceresearch recherche plusieurs sources, extrait les vraies pages de tarification et matrices de fonctionnalités, et renvoie un tableau de comparaison structuré avec des citations. Vous obtenez une recommandation basée sur ce qui est réellement sur le site de chaque produit, pas sur la popularité des données de formation.
Construire un pipeline RAG à partir de n’importe quel site de documentation
Extraire des données structurées à grande échelle
Migrer vers une nouvelle version de framework
Vous mettez à jour Next.js de la version 13 à 15. La compétencemigrate-code extrait le guide de migration officiel, extrait chaque changement majeur avec des modèles de code avant/après, et réécrit vos fichiers pour correspondre — basé sur la documentation réelle, pas sur la meilleure estimation du modèle.
Analyseurs préconstruits
Passez le paramètreparser à tout appel d’extraction et obtenez du JSON typé au lieu de contenu brut. Pas besoin de définition de schéma — ceux-ci gèrent l’extraction pour vous.
| Analyseur | Retourne |
|---|---|
@olostep/google-search | Résultats organiques, graphe de connaissances, People Also Ask |
@olostep/amazon-it-product | Prix, évaluation, fonctionnalités, disponibilité |
@olostep/extract-emails | Chaque adresse email trouvée sur la page |
@olostep/extract-calendars | Événements de calendrier structurés |
@olostep/extract-socials | Liens de profils de médias sociaux |
Liens
Installer sur ClawHub
Liste des plugins, historique des versions, et installation en une commande
Obtenir une clé API
500 requêtes gratuites/mois, pas de carte de crédit
Docs du serveur MCP
Configuration complète du serveur MCP pour Cursor, Claude Desktop, et d’autres clients
Référence API
Documentation complète des points de terminaison avec des exemples