Passer au contenu principal
Grâce à l’endpoint /v1/scrapes d’Olostep, vous pouvez extraire en temps réel du Markdown, HTML, texte, captures d’écran ou JSON structuré, adaptés aux LLM, à partir de n’importe quelle URL.
  • Produit du markdown propre, des données structurées, des captures d’écran ou du html
  • Extraire du JSON via Parsers ou extraction LLM
  • Gère le contenu dynamique : sites rendus par js, flux de connexion via actions, PDF
Pour les détails de l’API, consultez la Référence de l’API Scrape Endpoint.

Scraper une URL

Utilisez l’endpoint /v1/scrapes pour scraper une seule URL et choisir les formats de sortie.

Installation

pip install olostep

Utilisation

Vous pouvez utiliser l’endpoint pour scraper une seule URL et choisir les formats de sortie. Les paramètres obligatoires sont url_to_scrape et formats. Parmi les autres paramètres courants, on trouve wait_before_scraping (en millisecondes), remove_css_selectors (par défaut, aucun, ou un tableau de sélecteurs), et country.
from olostep import Olostep

client = Olostep(api_key="YOUR_REAL_KEY")

result = client.scrapes.create(
    url_to_scrape="https://en.wikipedia.org/wiki/Alexander_the_Great",
    formats=["markdown", "html"],
)

print(result.markdown_content)
print(result.html_content)

Réponse

L’API renvoie un objet scrape en réponse. Le scrape possède quelques propriétés comme id et result. L’objet result a les champs suivants (selon le paramètre formats, certains peuvent être nuls) :
  • html_content : le contenu HTML de la page. Passez formats: ["html"] pour obtenir cela.
  • markdown_content : le contenu MD de la page. Passez formats: ["markdown"] pour obtenir cela.
  • text_content : le contenu texte de la page. Passez formats: ["text"] pour obtenir cela.
  • json_content : le contenu JSON de la page. Passez formats: ["json"] pour obtenir cela et fournissez également un paramètre parser ou llm_extract.
  • screenshot_hosted_url : l’URL hébergée de la capture d’écran.
  • html_hosted_url : l’URL hébergée du contenu HTML
  • markdown_hosted_url : l’URL hébergée du contenu Markdown
  • json_hosted_url : l’URL hébergée du contenu JSON
  • text_hosted_url : l’URL hébergée du contenu texte
  • links_on_page : les liens sur la page
  • page_metadata : les métadonnées de la page
{
  "id": "scrape_6h89o8u1kt",
  "object": "scrape",
  "created": 1745673871,
  "metadata": {},
  "retrieve_id": "6h89o8u1kt",
  "url_to_scrape": "https://en.wikipedia.org/wiki/Alexander_the_Great",
  "result": {
    "html_content": "<html...",
    "markdown_content": "## Alexander the Great...",
    "text_content": null,
    "json_content": null,
    "screenshot_hosted_url": null,
    "html_hosted_url": "https://olostep-storage.s3.us-east-1.amazonaws.com/text_6h89o8u1kt.txt",
    "markdown_hosted_url": "https://olostep-storage.s3.us-east-1.amazonaws.com/markDown_6h89o8u1kt.txt",
    "json_hosted_url": null,
    "text_hosted_url": null,
    "links_on_page": [],
    "page_metadata": { "status_code": 200, "title": "" }
  }
}

Formats de Scrape

Choisissez un ou plusieurs formats de sortie via formats :
  • markdown : markdown adapté aux LLM
  • html : HTML nettoyé
  • text : texte brut
  • json : sortie structurée (via parser ou llm_extract)
  • raw_pdf : octets PDF bruts extraits vers une URL hébergée
  • screenshot : défini via actions pour capturer une capture d’écran et retourner une URL hébergée
Les clés de sortie sont retournées à l’intérieur de result en tant que champs *_content et également une *_hosted_url.

Extraire des données structurées

Vous pouvez extraire du JSON structuré de deux manières : en utilisant des Parsers ou l’extraction LLM.

Utiliser un Parser (recommandé pour l’échelle)

Définissez formats: ["json"] et fournissez un id de parser.
from olostep import Olostep

client = Olostep(api_key="YOUR_REAL_KEY")

result = client.scrapes.create(
    url_to_scrape="https://www.google.com/search?q=alexander+the+great&gl=us&hl=en",
    formats=["json"],
    parser="@olostep/google-search",
)

print(result.json_content)
Olostep propose quelques parsers préconstruits pour sites populaires mais vous pouvez également créer vos propres parsers via le tableau de bord ou demander à notre équipe de le faire pour vous. Les parsers sont auto-réparants et se mettront à jour eux-mêmes à la dernière version du site web.

Utiliser l’extraction LLM (schéma et/ou prompt)

Fournissez llm_extract avec un schéma JSON (schema) et/ou une instruction en langage naturel (prompt). Vous pouvez passer les deux paramètres, mais si les deux sont fournis, schema prend la priorité. Sinon, si vous passez juste un prompt, le LLM extraira les données en fonction du prompt et décidera de la structure des données par lui-même.
from olostep import LLMExtract, Olostep

client = Olostep(api_key="YOUR_REAL_KEY")

result = client.scrapes.create(
    url_to_scrape="https://www.berklee.edu/events/stefano-marchese-friends",
    formats=["markdown", "json"],
    llm_extract=LLMExtract(
        schema={
            "event": {
                "type": "object",
                "properties": {
                    "title": {"type": "string"},
                    "date": {"type": "string"},
                    "description": {"type": "string"},
                    "venue": {"type": "string"},
                    "address": {"type": "string"},
                    "start_time": {"type": "string"},
                },
            }
        }
    ),
)

print(result.json_content)
Note : result.json_content renvoie un JSON sous forme de chaîne de caractères. Analysez-le dans votre code si vous avez besoin d’un objet.

Interagir avec la page avec des Actions

Effectuez des actions avant de scraper pour interagir avec des sites dynamiques. Actions prises en charge :
  • wait avec milliseconds
  • click avec selector
  • fill_input avec selector et value
  • scroll avec direction et amount
Il est souvent utile d’utiliser wait avant/après d’autres actions pour permettre le chargement de la page.

Exemple

from olostep import FillInputAction, Olostep, WaitAction

client = Olostep(api_key="YOUR_REAL_KEY")

result = client.scrapes.create(
    url_to_scrape="https://example.com/login",
    formats=["markdown"],
    actions=[
        FillInputAction(selector="input[type=email]", value="john@example.com"),
        WaitAction(milliseconds=500),
        FillInputAction(selector="input[type=password]", value="secret"),
        {"type": "click", "selector": "button[type=\"submit\"]"},
        WaitAction(milliseconds=1500),
    ],
)

print(result.markdown_content)
La réponse inclura tous les formats demandés (par exemple, markdown_content).

Cas d’utilisation

Voici quelques applications pratiques de clients utilisant l’endpoint /scrapes.

Analyse de contenu & Recherche

  • Analyse concurrentielle : Extraire des détails de produits, prix et caractéristiques des sites concurrents
  • Étude de marché : Analyser les pages d’atterrissage, descriptions de produits et témoignages clients
  • Recherche académique : Rassembler des données spécifiques à partir de publications scientifiques ou de portails de recherche
  • Documentation légale : Extraire des études de cas, réglementations ou précédents juridiques à partir de sites officiels

E-commerce & Vente au détail

  • Stratégies de tarification dynamique : Obtenez les prix des produits en temps réel des magasins concurrents
  • Gestion de l’information produit : Extraire des spécifications détaillées et descriptions
  • Suivi des stocks/inventaires : Vérifiez la disponibilité des produits chez d’autres détaillants
  • Analyse des avis : Recueillir les retours et sentiments des consommateurs pour des produits spécifiques

Marketing & Création de contenu

  • Curation de contenu : Extraire des articles et billets de blog pertinents pour des newsletters
  • Analyse SEO : Examiner l’utilisation des mots-clés, descriptions méta et structure de page des concurrents
  • Génération de leads : Extraire des informations de contact à partir d’annuaires d’entreprises ou de pages d’entreprise
  • Recherche d’influenceurs : Recueillir des métriques d’engagement et styles de contenu à partir de profils d’influenceurs
  • Génération de médias sociaux personnalisée : Créer du marketing sur les réseaux sociaux alimenté par l’IA en analysant les sites web des clients

Applications de données

  • Collecte de données d’entraînement IA : Recueillir des exemples spécifiques pour les modèles d’apprentissage automatique
  • Construction de base de connaissances personnalisée : Extraire de la documentation ou des instructions à partir de sites logiciels
  • Archives de données historiques : Préserver le contenu des sites web à des moments spécifiques
  • Extraction de données structurées : Transformer le contenu web en ensembles de données formatés pour analyse

Surveillance & Alertes

  • Surveillance de la conformité réglementaire : Suivre les changements sur les sites web légaux ou réglementaires
  • Gestion de crise : Surveiller les sites d’actualités pour des mentions d’événements ou organisations spécifiques
  • Suivi d’événements : Extraire des détails sur les événements à venir à partir de sites de lieux ou d’organisateurs
  • Surveillance de l’état des services : Vérifiez les pages d’état des services pour des plateformes ou outils spécifiques

Publication & Médias

  • Agrégation d’actualités : Extraire des nouvelles de dernière minute à partir de sources officielles
  • Surveillance des médias : Suivre des sujets spécifiques à travers les sites d’actualités
  • Vérification de contenu : Extraire des informations pour vérifier des affirmations ou déclarations
  • Extraction multimédia : Recueillir des vidéos, images ou audio intégrés pour des bibliothèques multimédias

Applications financières

  • Recherche d’investissement : Extraire des états financiers ou rapports annuels à partir de sites d’entreprises
  • Indicateurs économiques : Recueillir des données économiques à partir de sites gouvernementaux ou d’institutions financières
  • Données sur les cryptomonnaies : Extraire des informations de prix en temps réel et de capitalisation boursière
  • Analyse des actualités financières : Surveiller les sites d’actualités financières pour des signaux de marché spécifiques

Applications techniques

  • Extraction de documentation API : Recueillir de la documentation technique pour référence
  • Tests d’intégration : Extraire des éléments de site web pour vérifier les intégrations tierces
  • Tests d’accessibilité : Analyser la structure des sites web pour la conformité aux normes d’accessibilité
  • Création d’archives web : Capturer le contenu complet des sites web pour la préservation historique

Scénarios d’intégration

  • Systèmes CRM : Améliorer les profils clients avec des données de sites d’entreprises ou Linkedin
  • Systèmes de gestion de contenu : Importer du contenu externe pertinent
  • Outils de business intelligence : Compléter les données internes avec des informations de marché externes
  • Logiciels de gestion de projet : Extraire des spécifications ou exigences à partir de sites de clients
  • Tableaux de bord personnalisés : Afficher les données extraites aux côtés des métriques internes

Tarification

Le coût d’un scrape est de 1 crédit par défaut. Si vous passez également des parsers, les coûts varient selon le parser (1-5 crédits). Si vous utilisez LLM extract, cela coûte 20 crédits.