/v1/scrapes Endpunkt kannst du LLM-freundliches Markdown, HTML, Text, Screenshots oder strukturiertes JSON in Echtzeit von jeder URL extrahieren.
- Gibt sauberes Markdown, strukturierte Daten, Screenshots oder HTML aus
- Extrahiere JSON durch Parsers oder LLM-Extraktion
- Verarbeitet dynamische Inhalte: JS-gerenderte Seiten, Login-Flows über Aktionen, PDFs
Eine URL scrapen
Verwende den/v1/scrapes Endpunkt, um eine einzelne URL zu scrapen und Ausgabeformate auszuwählen.
Installation
Verwendung
Du kannst den Endpunkt verwenden, um eine einzelne URL zu scrapen und Ausgabeformate auszuwählen. Die obligatorischen Parameter sindurl_to_scrape und formats.
Einige andere häufige Parameter sind wait_before_scraping (in Millisekunden), remove_css_selectors (Standard, keine oder ein Array von Selektoren) und country.
Antwort
Die API gibt einscrape Objekt als Antwort zurück.
Das scrape hat einige Eigenschaften wie id und result.
Das result Objekt hat die folgenden Felder (je nach formats Parameter können einige null sein):
html_content: der HTML-Inhalt der Seite. Gibformats: ["html"]an, um dies zu erhalten.markdown_content: der MD-Inhalt der Seite. Gibformats: ["markdown"]an, um dies zu erhalten.text_content: der Textinhalt der Seite. Gibformats: ["text"]an, um dies zu erhalten.json_content: der JSON-Inhalt der Seite. Gibformats: ["json"]an, um dies zu erhalten und auch einenparseroderllm_extractParameter bereitzustellen.screenshot_hosted_url: die gehostete URL des Screenshots.html_hosted_url: die gehostete URL des HTML-Inhaltsmarkdown_hosted_url: die gehostete URL des Markdown-Inhaltsjson_hosted_url: die gehostete URL des JSON-Inhaltstext_hosted_url: die gehostete URL des Textinhaltslinks_on_page: die Links auf der Seitepage_metadata: die Metadaten der Seite
Scrape-Formate
Wähle ein oder mehrere Ausgabeformate überformats:
markdown: LLM-freundliches Markdownhtml: bereinigtes HTMLtext: Klartextjson: strukturiertes Ergebnis (über Parser oder llm_extract)raw_pdf: rohe PDF-Bytes extrahiert zur gehosteten URLscreenshot: über Aktionen festgelegt, um einen Screenshot aufzunehmen und eine gehostete URL zurückzugeben
result als *_content Felder und eine *_hosted_url zurückgegeben.
Strukturierte Daten extrahieren
Du kannst strukturiertes JSON auf zwei Arten extrahieren: mit Parsers oder LLM-Extraktion.Verwendung eines Parsers (empfohlen für Skalierung)
Definiereformats: ["json"] und gib eine Parser id an.
Verwendung der LLM-Extraktion (Schema und/oder Prompt)
Gibllm_extract mit einem JSON-Schema (schema) und/oder einer natürlichen Sprachinstruktion (prompt) an. Du kannst beide Parameter übergeben, aber wenn beide angegeben sind, hat schema Vorrang.
Wenn du stattdessen nur einen prompt übergibst, wird das LLM die Daten basierend auf dem Prompt extrahieren und die Datenstruktur selbst bestimmen.
result.json_content gibt ein stringifiziertes JSON zurück. Parsen es in deinem Code, wenn du ein Objekt benötigst.
Interaktion mit der Seite durch Aktionen
Führe Aktionen vor dem Scrapen aus, um mit dynamischen Seiten zu interagieren. Unterstützte Aktionen:waitmitmillisecondsclickmitselectorfill_inputmitselectorundvaluescrollmitdirectionundamount
wait vor/nach anderen Aktionen zu verwenden, um der Seite Zeit zum Laden zu geben.
Beispiel
markdown_content).
Anwendungsfälle
Im Folgenden sind einige praktische Anwendungen von Kunden aufgeführt, die den/scrapes Endpunkt verwenden.
Inhaltsanalyse & Forschung
- Wettbewerbsanalyse: Extrahiere Produktdetails, Preise und Funktionen von Wettbewerber-Websites
- Marktforschung: Analysiere Landing Pages, Produktbeschreibungen und Kundenreferenzen
- Akademische Forschung: Sammle spezifische Daten aus wissenschaftlichen Publikationen oder Forschungsportalen
- Rechtsdokumentation: Extrahiere Fallstudien, Vorschriften oder rechtliche Präzedenzfälle von offiziellen Websites
E-Commerce & Einzelhandel
- Dynamische Preisstrategien: Erhalte Echtzeit-Produktpreise von konkurrierenden Geschäften
- Produktinformationsmanagement: Extrahiere detaillierte Spezifikationen und Beschreibungen
- Bestandsüberwachung: Überprüfe die Produktverfügbarkeit bei anderen Einzelhändlern
- Rezensionsanalyse: Sammle Verbraucherfeedback und -stimmung für bestimmte Produkte
Marketing & Inhaltserstellung
- Inhaltskuratierung: Extrahiere relevante Artikel und Blogbeiträge für Newsletter
- SEO-Analyse: Untersuche die Keyword-Nutzung, Meta-Beschreibungen und Seitenstruktur von Wettbewerbern
- Lead-Generierung: Extrahiere Kontaktinformationen aus Unternehmensverzeichnissen oder Firmenwebseiten
- Influencer-Forschung: Sammle Engagement-Metriken und Inhaltsstile von Influencer-Profilen
- Personalisierte Social-Media-Generierung: Erstelle KI-gesteuertes Social-Media-Marketing durch Analyse von Kundenwebsites
Datenanwendungen
- AI-Trainingsdatensammlung: Sammle spezifische Beispiele für maschinelle Lernmodelle
- Erstellung einer benutzerdefinierten Wissensbasis: Extrahiere Dokumentationen oder Anleitungen von Softwareseiten
- Historische Datenarchive: Bewahre Website-Inhalte zu bestimmten Zeitpunkten auf
- Strukturierte Datenauswertung: Transformiere Webinhalte in formatierte Datensätze zur Analyse
Überwachung & Benachrichtigungen
- Überwachung der Einhaltung von Vorschriften: Verfolge Änderungen auf rechtlichen oder regulatorischen Websites
- Krisenmanagement: Überwache Nachrichtenseiten auf Erwähnungen bestimmter Ereignisse oder Organisationen
- Ereignisverfolgung: Extrahiere Details zu bevorstehenden Veranstaltungen von Veranstaltungsorten oder Organisatoren-Websites
- Überwachung des Dienststatus: Überprüfe Dienststatusseiten für bestimmte Plattformen oder Tools
Veröffentlichung & Medien
- Nachrichtenaggregation: Extrahiere aktuelle Nachrichten aus offiziellen Quellen
- Medienüberwachung: Verfolge spezifische Themen auf Nachrichtenseiten
- Inhaltsverifizierung: Extrahiere Informationen, um Behauptungen oder Aussagen zu überprüfen
- Multimedia-Extraktion: Sammle eingebettete Videos, Bilder oder Audiodateien für Medienbibliotheken
Finanzanwendungen
- Investmentforschung: Extrahiere Finanzberichte oder Jahresberichte von Unternehmenswebsites
- Wirtschaftsindikatoren: Sammle Wirtschaftsdaten von Regierungs- oder Finanzinstitutions-Websites
- Kryptowährungsdaten: Extrahiere Echtzeit-Preise und Marktkapitalisierungsinformationen
- Finanznachrichtenanalyse: Überwache Finanznachrichtenseiten auf spezifische Marktsignale
Technische Anwendungen
- API-Dokumentationsextraktion: Sammle technische Dokumentationen zur Referenz
- Integrationstests: Extrahiere Website-Elemente, um Drittanbieter-Integrationen zu überprüfen
- Barrierefreiheitstests: Analysiere die Website-Struktur auf Einhaltung von Barrierefreiheitsstandards
- Erstellung von Webarchiven: Erfasse vollständige Website-Inhalte zur historischen Bewahrung
Integrationsszenarien
- CRM-Systeme: Ergänze Kundenprofile mit Daten von Unternehmenswebsites oder LinkedIn
- Content-Management-Systeme: Importiere relevante externe Inhalte
- Business-Intelligence-Tools: Ergänze interne Daten mit externen Marktinformationen
- Projektmanagement-Software: Extrahiere Spezifikationen oder Anforderungen von Kundenwebsites
- Benutzerdefinierte Dashboards: Zeige extrahierte Daten neben internen Metriken an