/v1/scrapes Endpunkt kannst du LLM-freundliches Markdown, HTML, Text, Screenshots oder strukturiertes JSON in Echtzeit aus jeder URL extrahieren.
- Gibt sauberes Markdown, strukturierte Daten, Screenshots oder HTML aus
- Extrahiere JSON über Parsers oder LLM-Extraktion
- Handhabt dynamische Inhalte: JS-gerenderte Seiten, Login-Flows über Aktionen, PDFs
Eine URL scrapen
Verwende den/v1/scrapes Endpunkt, um eine einzelne URL zu scrapen und Ausgabeformate auszuwählen.
Installation
Verwendung
Du kannst den Endpunkt verwenden, um eine einzelne URL zu scrapen und Ausgabeformate auszuwählen. Die obligatorischen Parameter sindurl_to_scrape und formats.
Einige andere häufige Parameter sind wait_before_scraping (in Millisekunden), remove_css_selectors (standardmäßig keine oder ein Array von Selektoren) und country.
Antwort
Die API gibt einscrape Objekt als Antwort zurück.
Das scrape hat einige Eigenschaften wie id und result.
Das result Objekt hat die folgenden Felder (je nach formats Parameter können einige null sein):
html_content: der HTML-Inhalt der Seite. Gibformats: ["html"]an, um dies zu erhalten.markdown_content: der MD-Inhalt der Seite. Gibformats: ["markdown"]an, um dies zu erhalten.text_content: der Textinhalt der Seite. Gibformats: ["text"]an, um dies zu erhalten.json_content: der JSON-Inhalt der Seite. Gibformats: ["json"]an, um dies zu erhalten, und stelle auch einenparseroderllm_extractParameter bereit.screenshot_hosted_url: die gehostete URL des Screenshots.html_hosted_url: die gehostete URL des HTML-Inhaltsmarkdown_hosted_url: die gehostete URL des Markdown-Inhaltsjson_hosted_url: die gehostete URL des JSON-Inhaltstext_hosted_url: die gehostete URL des Textinhaltslinks_on_page: die Links auf der Seitepage_metadata: die Metadaten der Seite
Scrape-Formate
Wähle ein oder mehrere Ausgabeformate überformats:
markdown: LLM-freundliches Markdownhtml: bereinigtes HTMLtext: Klartextjson: strukturiertes Ausgabeformat (über Parser oder llm_extract)raw_pdf: rohe PDF-Bytes, die zu einer gehosteten URL extrahiert werdenscreenshot: über Aktionen festgelegt, um einen Screenshot zu erstellen und eine gehostete URL zurückzugeben
result als *_content Felder und eine *_hosted_url zurückgegeben.
Strukturierte Daten extrahieren
Du kannst strukturiertes JSON auf zwei Arten extrahieren: mit Parsers oder LLM-Extraktion.Einen Parser verwenden (empfohlen für Skalierung)
Definiereformats: ["json"] und stelle eine Parser id bereit.
LLM-Extraktion verwenden (Schema und/oder Prompt)
Stellellm_extract mit einem JSON-Schema (schema) und/oder einer natürlichen Sprachinstruktion (prompt) bereit. Du kannst beide Parameter übergeben, aber wenn beide bereitgestellt werden, hat schema Vorrang.
Wenn du stattdessen nur einen prompt übergibst, wird das LLM die Daten basierend auf dem Prompt extrahieren und die Datenstruktur selbst bestimmen.
result.json_content gibt ein stringifiziertes JSON zurück. Parsen es in deinem Code, wenn du ein Objekt benötigst.
Mit der Seite über Aktionen interagieren
Führe Aktionen vor dem Scraping aus, um mit dynamischen Seiten zu interagieren. Unterstützte Aktionen:waitmitmillisecondsclickmitselectorfill_inputmitselectorundvaluescrollmitdirectionundamount
wait vor/nach anderen Aktionen zu verwenden, um der Seite Zeit zum Laden zu geben.
Beispiel
markdown_content).
Anwendungsfälle
Nachfolgend sind einige praktische Anwendungen von Kunden aufgeführt, die den/scrapes Endpunkt nutzen.
Inhaltsanalyse & Forschung
- Wettbewerbsanalyse: Extrahiere Produktdetails, Preise und Funktionen von Wettbewerber-Websites
- Marktforschung: Analysiere Landingpages, Produktbeschreibungen und Kundenrezensionen
- Akademische Forschung: Sammle spezifische Daten aus wissenschaftlichen Publikationen oder Forschungsportalen
- Rechtsdokumentation: Extrahiere Fallstudien, Vorschriften oder rechtliche Präzedenzfälle von offiziellen Websites
E-Commerce & Einzelhandel
- Dynamische Preisstrategien: Erhalte Echtzeit-Produktpreise von konkurrierenden Geschäften
- Produktinformationsmanagement: Extrahiere detaillierte Spezifikationen und Beschreibungen
- Lager-/Inventarüberwachung: Überprüfe die Produktverfügbarkeit bei anderen Einzelhändlern
- Bewertungsanalyse: Sammle Verbraucherfeedback und Stimmungen für bestimmte Produkte
Marketing & Content-Erstellung
- Content-Kuration: Extrahiere relevante Artikel und Blogposts für Newsletter
- SEO-Analyse: Untersuche die Keyword-Nutzung, Meta-Beschreibungen und Seitenstruktur von Wettbewerbern
- Lead-Generierung: Extrahiere Kontaktinformationen aus Unternehmensverzeichnissen oder Firmenwebseiten
- Influencer-Forschung: Sammle Engagement-Metriken und Content-Stile von Influencer-Profilen
- Personalisierte Social-Media-Generierung: Erstelle KI-gestützte Social-Media-Marketing durch Analyse von Kundenwebsites
Datenanwendungen
- AI-Trainingsdatensammlung: Sammle spezifische Beispiele für maschinelle Lernmodelle
- Benutzerdefinierte Wissensdatenbank-Erstellung: Extrahiere Dokumentationen oder Anleitungen von Softwareseiten
- Historische Datenarchive: Bewahre Website-Inhalte zu bestimmten Zeitpunkten
- Strukturierte Datenextraktion: Transformiere Webinhalte in formatierte Datensätze zur Analyse
Überwachung & Benachrichtigungen
- Überwachung der Einhaltung gesetzlicher Vorschriften: Verfolge Änderungen auf rechtlichen oder regulatorischen Websites
- Krisenmanagement: Überwache Nachrichtenseiten auf Erwähnungen bestimmter Ereignisse oder Organisationen
- Ereignisverfolgung: Extrahiere Details zu bevorstehenden Veranstaltungen von Veranstaltungsorten oder Organisator-Websites
- Überwachung des Dienststatus: Überprüfe Dienststatusseiten für spezifische Plattformen oder Tools
Veröffentlichung & Medien
- Nachrichtenaggregation: Extrahiere aktuelle Nachrichten aus offiziellen Quellen
- Medienüberwachung: Verfolge spezifische Themen auf Nachrichtenseiten
- Inhaltsverifizierung: Extrahiere Informationen zur Überprüfung von Behauptungen oder Aussagen
- Multimedia-Extraktion: Sammle eingebettete Videos, Bilder oder Audio für Medienbibliotheken
Finanzanwendungen
- Investmentforschung: Extrahiere Finanzberichte oder Jahresberichte von Unternehmenswebsites
- Wirtschaftsindikatoren: Sammle Wirtschaftsdaten von Regierungs- oder Finanzinstitutionswebsites
- Kryptowährungsdaten: Extrahiere Echtzeit-Preise und Marktkapitalisierungsinformationen
- Finanznachrichtenanalyse: Überwache Finanznachrichtenseiten auf spezifische Marktsignale
Technische Anwendungen
- API-Dokumentationsextraktion: Sammle technische Dokumentationen zur Referenz
- Integrationstests: Extrahiere Website-Elemente zur Überprüfung von Drittanbieter-Integrationen
- Barrierefreiheitstests: Analysiere die Website-Struktur auf Einhaltung von Barrierefreiheitsstandards
- Webarchiverstellung: Erfasse vollständige Website-Inhalte zur historischen Bewahrung
Integrationsszenarien
- CRM-Systeme: Ergänze Kundenprofile mit Daten von Unternehmenswebsites oder LinkedIn
- Content-Management-Systeme: Importiere relevante externe Inhalte
- Business-Intelligence-Tools: Ergänze interne Daten mit externen Marktinformationen
- Projektmanagement-Software: Extrahiere Spezifikationen oder Anforderungen von Kundenwebsites
- Benutzerdefinierte Dashboards: Zeige extrahierte Daten neben internen Metriken an