Zum Hauptinhalt springen
Die Olostep n8n-Integration bringt leistungsstarke Websuche, Scraping und Crawling-Funktionen in n8n-Workflows. Erstellen Sie automatisierte Workflows, die Webdaten von jeder Website suchen, extrahieren und strukturieren, ohne Code zu schreiben. Erste Schritte mit Olostep auf n8n →

Funktionen

Die Integration bietet 6 leistungsstarke Operationen zur automatisierten Webdatenextraktion:

Website Scrapen

Extrahieren Sie Inhalte von jeder einzelnen URL in mehreren Formaten (Markdown, HTML, JSON, Text)

Suche

Durchsuchen Sie das Web und erhalten Sie strukturierte Ergebnisse

Antworten (KI)

Durchsuchen Sie das Web mit KI und erhalten Sie strukturierte Antworten mit Quellen und Zitaten

Batch-URLs scrapen

Scrapen Sie bis zu 10.000 URLs gleichzeitig. Perfekt für groß angelegte Datenextraktion

Crawl erstellen

Erhalten Sie den Inhalt von Unterseiten einer URL. Entdecken und scrapen Sie autonom ganze Websites

Karte erstellen

Erhalten Sie alle URLs auf einer Website für die Analyse der Seitenstruktur und die Inhaltserkennung

Installation

1. Installieren Sie den Node

Installieren Sie das Olostep-Node-Paket über npm:
npm install n8n-nodes-olostep
Starten Sie dann n8n neu, um den neuen Node zu laden. Alternativ folgen Sie der n8n Community Nodes Installationsanleitung für detaillierte Anweisungen.

2. Verbinden Sie Ihr Konto

Wenn Sie den Olostep-Node zum ersten Mal in einem Workflow verwenden, müssen Sie Anmeldeinformationen konfigurieren:
  1. Fügen Sie den “Olostep Scrape”-Node zu Ihrem Workflow hinzu
  2. Klicken Sie auf den Node, um seine Einstellungen zu öffnen
  3. Klicken Sie auf “Neue Anmeldeinformationen erstellen” oder wählen Sie vorhandene Anmeldeinformationen aus
  4. Geben Sie Ihren Olostep-API-Schlüssel ein
  5. Klicken Sie auf “Speichern”, um die Anmeldeinformationen zu speichern
Holen Sie sich Ihren API-Schlüssel vom Olostep-Dashboard.

Verfügbare Aktionen

Website Scrapen

Extrahieren Sie Inhalte von einer einzelnen URL. Unterstützt mehrere Formate und JavaScript-Rendering. Anwendungsfälle:
  • Überwachen Sie bestimmte Seiten auf Änderungen
  • Extrahieren Sie Produktinformationen von E-Commerce-Seiten
  • Sammeln Sie Daten aus Nachrichtenartikeln oder Blogbeiträgen
  • Ziehen Sie Inhalte für Content-Aggregation
Konfiguration:
URL zum Scrapen
string
erforderlich
Website-URL zum Scrapen (muss http:// oder https:// enthalten)
Ausgabeformat
dropdown
Standard:"Markdown"
Format wählen: Markdown, HTML, JSON oder Klartext
Ländercode
string
Ländercode für standortspezifische Inhalte (z.B. “US”, “GB”, “CA”)
Wartezeit vor dem Scrapen
integer
Wartezeit in Millisekunden für JavaScript-Rendering (0-10000)
Parser
string
Optionaler Parser-ID für spezialisierte Extraktion (z.B. “@olostep/amazon-product”)
Ausgabefelder:
  • Scrape-ID
  • Gescrapte URL
  • Markdown-Inhalt
  • HTML-Inhalt
  • JSON-Inhalt
  • Textinhalt
  • Status
  • Zeitstempel
  • Screenshot-URL (falls verfügbar)
  • Seiten-Metadaten
Beispiel-Workflows:
Auslöser: Zeitplan (Jeden Tag um 9 Uhr)Aktion: Olostep - Website Scrapen
  • URL: Wettbewerber-Produktseite
  • Format: JSON
  • Parser: @olostep/amazon-product
Aktion: Google Sheets - Zeile anhängen
  • Preisdaten zum Tracking-Spreadsheet hinzufügen
Aktion: E-Mail - E-Mail senden (Bei Preisrückgang)
  • Team über Preisänderungen informieren
Auslöser: RSS-Feed - Neuer EintragAktion: Olostep - Website Scrapen
  • URL: {{$json.link}}
  • Format: Markdown
Aktion: Notion - Seite erstellen
  • Artikelinhalt in Notion-Datenbank speichern
Auslöser: Google Sheets - Neue ZeileAktion: Olostep - Website Scrapen
  • URL: Unternehmenswebsite aus Tabelle
  • Format: Markdown
Aktion: OpenAI - Text vervollständigen
  • Unternehmensinformationen mit KI extrahieren
Aktion: Google Sheets - Zeile aktualisieren
  • Angereicherte Daten zurück in die Tabelle hinzufügen

Suche

Durchsuchen Sie das Web nach einer bestimmten Abfrage und erhalten Sie strukturierte Ergebnisse (nicht-KI, parserbasierte Suchergebnisse). Anwendungsfälle:
  • Automatisierte Forschungs-Workflows
  • Lead-Entdeckung und Anreicherung
  • Wettbewerbsanalyse
  • Inhaltsrecherche
Konfiguration:
Abfrage
string
erforderlich
Suchabfrage
Ausgabe: Gibt strukturierte Suchergebnisse als JSON mit Titeln, URLs, Snippets und Metadaten zurück. Beispiel-Workflows:
Auslöser: Zeitplan (Täglich um 8 Uhr)Aktion: Olostep - Suche
  • Abfrage: “neueste KI-Entwicklungen”
Aktion: Code - Ergebnisse verarbeiten
  • Wichtige Informationen extrahieren und formatieren
Aktion: Notion - Seiten erstellen
  • Forschungsergebnisse speichern
Auslöser: Manuell (Button)Aktion: Olostep - Suche
  • Abfrage: ”{{$json.searchTerm}}”
Aktion: Airtable - Datensätze erstellen
  • Leads mit Kontaktinformationen speichern

Batch-URLs scrapen

Scrapen Sie bis zu 10.000 URLs gleichzeitig. Perfekt für groß angelegte Datenextraktion. Anwendungsfälle:
  • Ganze Produktkataloge scrapen
  • Daten aus mehreren Suchergebnissen extrahieren
  • Listen von URLs aus Tabellenkalkulationen verarbeiten
  • Massenhafte Inhaltsextraktion
Konfiguration:
URLs zum Scrapen
text
erforderlich
JSON-Array von Objekten mit url und custom_id Feldern.Beispiel: [{"url":"https://example.com","custom_id":"site1"}]
Ausgabeformat
dropdown
Standard:"Markdown"
Format für alle URLs wählen: Markdown, HTML, JSON oder Klartext
Ländercode
string
Ländercode für standortspezifisches Scraping
Wartezeit vor dem Scrapen
integer
Wartezeit in Millisekunden für JavaScript-Rendering
Parser
string
Optionaler Parser-ID für spezialisierte Extraktion
Ausgabefelder:
  • Batch-ID (verwenden Sie dies, um Ergebnisse später abzurufen)
  • Status
  • Gesamtanzahl der URLs
  • Erstellungsdatum
  • Angefordertes Format
  • Ländercode
  • Verwendeter Parser
Beispiel-Workflows:
Auslöser: Webhook - POST-Anfrage empfangenAktion: Code - URLs formatieren
  • CSV/Liste in JSON-Array-Format konvertieren
Aktion: Olostep - Batch-URLs scrapen
  • URLs: {{$json.urlArray}}
  • Format: JSON
  • Parser: @olostep/amazon-product
Aktion: Webhook - POST
  • Batch-ID an Ihr System zur Abholung senden
Auslöser: Zeitplan - Jeden Tag um 6 UhrAktion: Google Sheets - Zeilen lesen
  • Zu überwachende URLs abrufen
Aktion: Code - URLs formatieren
  • In Batch-Array-Format konvertieren
Aktion: Olostep - Batch-URLs scrapen
  • Alle URLs auf einmal verarbeiten
Aktion: Slack - Nachricht senden
  • Team benachrichtigen, dass das Scraping abgeschlossen ist

Crawl erstellen

Erhalten Sie den Inhalt von Unterseiten einer URL. Entdecken und scrapen Sie autonom ganze Websites, indem Sie Links folgen. Perfekt für Dokumentationsseiten, Blogs und Inhaltsrepositorien. Anwendungsfälle:
  • Ganze Dokumentationsseiten crawlen und archivieren
  • Alle Blogbeiträge von einer Website extrahieren
  • Wissensdatenbanken aus Webinhalten erstellen
  • Änderungen in der Website-Struktur überwachen
Konfiguration:
Start-URL
string
erforderlich
Start-URL für den Crawl (muss http:// oder https:// enthalten)
Maximale Seiten
integer
Standard:"10"
Maximale Anzahl der zu crawlenden Seiten
Ob Links auf Seiten gefolgt werden sollen
Ausgabeformat
dropdown
Standard:"Markdown"
Format für gescrapten Inhalt
Ländercode
string
Optionaler Ländercode für standortspezifisches Crawling
Parser
string
Optionaler Parser-ID für spezialisierte Inhaltsextraktion
Ausgabefelder:
  • Crawl-ID (verwenden Sie dies, um Ergebnisse später abzurufen)
  • Objekttyp
  • Status
  • Start-URL
  • Maximale Seiten
  • Links folgen
  • Erstellungszeitstempel
  • Formate
Beispiel-Workflows:
Auslöser: Zeitplan - Monatlich am 1. um 0 UhrAktion: Olostep - Crawl erstellenAktion: Webhook - POST
  • Crawl-ID an Ihr Archivsystem senden
Aktion: Slack - Nachricht senden
  • Team benachrichtigen, dass der Crawl läuft
Auslöser: Zeitplan - Wöchentlich am Montag um 9 UhrAktion: Olostep - Crawl erstellen
  • Start-URL: Wettbewerber-Blog-URL
  • Maximale Seiten: 100
  • Format: Markdown
Aktion: Warten - Für 10 Minuten
  • Warten, bis der Crawl abgeschlossen ist
Aktion: Airtable - Datensätze erstellen
  • Crawl-Daten zur Analyse speichern

Karte erstellen

Erhalten Sie alle URLs auf einer Website. Extrahieren Sie alle URLs von einer Website zur Inhaltserkennung und Analyse der Seitenstruktur. Anwendungsfälle:
  • Sitemaps und Seitenstrukturdiagramme erstellen
  • Alle Seiten vor dem Batch-Scraping entdecken
  • Gebrochene oder fehlende Seiten finden
  • SEO-Audits und Analysen
Konfiguration:
Website-URL
string
erforderlich
Website-URL, um Links zu extrahieren (muss http:// oder https:// enthalten)
Suchabfrage
string
Optionale Suchabfrage, um URLs zu filtern (z.B. “blog”)
Top-N-URLs
integer
Begrenzen Sie die Anzahl der zurückgegebenen URLs
Einschluss-URL-Muster
string
Glob-Muster, um bestimmte Pfade einzuschließen (z.B. “/blog/**”)
Ausschluss-URL-Muster
string
Glob-Muster, um bestimmte Pfade auszuschließen (z.B. “/admin/**”)
Ausgabefelder:
  • Karten-ID
  • Objekttyp
  • Website-URL
  • Gesamtanzahl gefundener URLs
  • URLs (JSON-Array)
  • Suchabfrage
  • Top-N-Limit
Beispiel-Workflows:
Auslöser: Manuell (Button)Aktion: Olostep - Karte erstellenAktion: Code - URLs extrahieren
  • URLs aus dem Kartenresultat parsen
Aktion: Olostep - Batch-URLs scrapen
  • URLs: {{$json.urls}}
  • Format: JSON
Aktion: Google Sheets - Zeilen anhängen
  • Alle Produktdaten zur Tabelle hinzufügen
Auslöser: Zeitplan - MonatlichAktion: Olostep - Karte erstellen
  • URL: Ihre Website
  • Top-N: 1000
Aktion: Airtable - Datensätze erstellen
  • Alle URLs zur Nachverfolgung speichern
Aktion: Slack - Nachricht senden
  • Gesamtanzahl der gefundenen Seiten berichten

Beliebte Workflow-Beispiele

E-Commerce-Preisüberwachung

Überwachen Sie Wettbewerberpreise und erhalten Sie sofortige Benachrichtigungen:
Auslöser: Zeitplan (Stündlich)

Aktion: Olostep - Website Scrapen
  - URL: Wettbewerber-Produktseite
  - Format: JSON
  - Parser: @olostep/amazon-product

Aktion: IF - Prüfen, ob sich der Preis geändert hat

Aktion: Slack - Nachricht senden
  - Benachrichtigung: "Preis geändert auf $\{\{price\}\}"

Inhaltsaggregation

Aggregieren Sie Inhalte aus mehreren Quellen:
Auslöser: Google Sheets - Neue Zeile

Aktion: Olostep - Website Scrapen
  - URL: \{\{$json.url\}\}
  - Format: Markdown

Aktion: OpenAI - Zusammenfassen
  - Inhalt zusammenfassen

Aktion: Airtable - Datensatz erstellen
  - Artikel mit Zusammenfassung speichern

Lead-Anreicherungs-Pipeline

Bereichern Sie Lead-Daten mit Webinformationen:
Auslöser: HubSpot - Neuer Kontakt

Aktion: Olostep - Website Scrapen
  - URL: \{\{$json.companyWebsite\}\}
  - Format: Markdown

Aktion: OpenAI - Daten extrahieren
  - Extrahieren: Unternehmensgröße, Branche, Produkte

Aktion: HubSpot - Kontakt aktualisieren
  - Angereicherte Daten zum Kontakt hinzufügen

Forschungsautomatisierung

Automatisieren Sie Forschung aus mehreren Quellen:
Auslöser: Airtable - Neuer Datensatz

Aktion: Olostep - Karte erstellen
  - URL: Forschungsziel-Website
  - Einschließen: /research/**

Aktion: Code - URLs parsen

Aktion: Olostep - Batch-URLs scrapen
  - URLs: \{\{$json.discoveredUrls\}\}
  - Format: Markdown

Aktion: Notion - Seiten erstellen
  - Forschungsdatenbank erstellen

Social Media Monitoring

Verfolgen Sie Erwähnungen und Inhalte:
Auslöser: Zeitplan (Alle 6 Stunden)

Aktion: Olostep - Website Scrapen
  - URL: Nachrichtensuche-Seite
  - Format: HTML

Aktion: Code - Erwähnungen extrahieren
  - Marken-Erwähnungen finden

Aktion: Google Sheets - Zeile anhängen
  - Erwähnungen mit Zeitstempel protokollieren

Mehrstufige Workflows

Vollständige Produktscraping-Pipeline

Erstellen Sie eine umfassende Produktdaten-Pipeline:
1

Produkt-URLs entdecken

Verwenden Sie Karte erstellen, um alle Produktseiten auf der Ziel-Website zu finden
  • Einschlussmuster: /products/**
  • Ausschlussmuster: /cart/**, /checkout/**
2

Produkte stapelweise verarbeiten

Verwenden Sie Batch-URLs scrapen, um alle Produktdaten zu extrahieren
  • Format: JSON
  • Parser: Produktspezifischer Parser, falls verfügbar
3

In Datenbank speichern

Senden Sie die Batch-ID an Ihr System oder warten Sie und rufen Sie Ergebnisse ab
  • Verwenden Sie Airtable, Google Sheets oder Ihre Datenbank
4

Änderungen überwachen

Planen Sie tägliche Scrapes, um Preis-/Verfügbarkeitsänderungen zu verfolgen
  • Mit vorhandenen Daten vergleichen
  • Bei signifikanten Änderungen benachrichtigen

SEO-Inhaltsstrategie

Analysieren Sie Wettbewerber und planen Sie Inhalte:
1

Wettbewerberseiten kartieren

Verwenden Sie Karte erstellen auf Wettbewerber-Websites
  • Alle Blogbeiträge und Inhaltsseiten extrahieren
2

Inhalte scrapen

Verwenden Sie Batch-URLs scrapen, um vollständige Inhalte zu erhalten
  • Format: Markdown zur einfachen Analyse
3

KI-Analyse

Verwenden Sie OpenAI, um Themen und Schlüsselwörter zu analysieren
  • Inhaltslücken identifizieren
  • Trendthemen finden
4

Inhaltskalender erstellen

Erkenntnisse zu Notion oder Airtable hinzufügen
  • Ihre Inhaltsstrategie planen

Spezialisierte Parser

Olostep bietet vorgefertigte Parser für beliebte Websites. Verwenden Sie sie mit dem Parser-Feld:

Amazon-Produkt

@olostep/amazon-productExtrahieren: Titel, Preis, Bewertung, Rezensionen, Bilder, Varianten

Google-Suche

@olostep/google-searchExtrahieren: Suchergebnisse, Titel, Snippets, URLs

Google Maps

@olostep/google-mapsExtrahieren: Unternehmensinformationen, Rezensionen, Bewertungen, Standort

E-Mails extrahieren

@olostep/extract-emailsExtrahieren: E-Mails von Seiten, Kontaktlisten und Fußzeilen

Soziale Netzwerke extrahieren

@olostep/extract-socialsExtrahieren: Links zu sozialen Profilen (X/Twitter, GitHub, etc.)

Kalender extrahieren

@olostep/extract-calendarsExtrahieren: Kalenderlinks (Google Calendar, ICS) von Seiten

Verwendung von Parsern

Fügen Sie einfach die Parser-ID zum Parser-Feld hinzu. Zwei Beispiele:
Aktion: Olostep - Website Scrapen
  - URL: https://www.amazon.com/dp/PRODUCT_ID
  - Format: JSON
  - Parser: @olostep/amazon-product
Aktion: Olostep - Website Scrapen
  - URL: https://example.com/contact
  - Format: JSON
  - Parser: @olostep/extract-emails
Der Parser extrahiert automatisch strukturierte Daten, die spezifisch für die Aufgabe sind.

Integration mit beliebten Apps

Google Sheets

Perfekt für Datensammlung und -verfolgung:
1. Olostep scrapt Website
2. Daten filtern oder transformieren
3. Google Sheets - Zeile anhängen
Anwendungsfälle:
  • Preisverfolgungs-Tabellen
  • Lead-Anreicherungsdatenbanken
  • Inhaltsinventar
  • Wettbewerbsanalysen

Airtable

Erstellen Sie leistungsstarke Datenbanken mit gescrapten Daten:
1. Olostep scrapt oder crawlt
2. Code - Daten formatieren
3. Airtable - Datensätze erstellen
Anwendungsfälle:
  • Produktkataloge
  • Forschungsdatenbanken
  • Inhaltskalender
  • Link-Datenbanken

Slack

Erhalten Sie sofortige Benachrichtigungen:
1. Olostep überwacht Seite
2. IF - Auf Änderungen prüfen
3. Slack - Nachricht senden
Anwendungsfälle:
  • Preisalarm bei Preisrückgang
  • Inhaltsaktualisierungsbenachrichtigungen
  • Fehlerüberwachung
  • Tägliche Zusammenfassungen

HubSpot / Salesforce

Bereichern Sie CRM-Daten automatisch:
1. Neuer Kontakt hinzugefügt
2. Olostep scrapt Unternehmenswebsite
3. OpenAI extrahiert wichtige Informationen
4. CRM - Kontakt aktualisieren
Anwendungsfälle:
  • Lead-Anreicherung
  • Unternehmensrecherche
  • Wettbewerbsintelligenz
  • Account-Mapping

Notion

Erstellen Sie Wissensdatenbanken:
1. Olostep crawlt Dokumentation
2. Code - Inhalte parsen
3. Notion - Seiten erstellen
Anwendungsfälle:
  • Dokumentationsspiegel
  • Forschungsrepositorien
  • Inhaltsbibliotheken
  • Team-Wikis

Best Practices

Wenn Sie mehr als 3-5 URLs scrapen, verwenden Sie Batch-URLs scrapen anstelle mehrerer Website Scrapen-Aktionen. Batch-Verarbeitung ist:
  • Viel schneller (Parallelverarbeitung)
  • Kostengünstiger
  • Einfacher zu verwalten
  • Besser für Ratenlimits
Für JavaScript-lastige Seiten verwenden Sie den Parameter “Wartezeit vor dem Scrapen”:
  • Einfache Seiten: 0-1000ms
  • Dynamische Seiten: 2000-3000ms
  • Schweres JavaScript: 5000-8000ms
Testen Sie mit verschiedenen Werten, um die optimale Wartezeit zu finden.
Verwenden Sie vorgefertigte Parser (z.B. Amazon, Google und aufgabenspezifische Parser aus dem Olostep Store wie E-Mails, soziale Netzwerke, Kalender):
  • Automatisch strukturierte Daten erhalten
  • Zuverlässigere Extraktion
  • Kein Bedarf an benutzerdefiniertem Parsing
  • Von Olostep gewartet
Verwenden Sie den IF-Node von n8n, um unnötige Scrapes zu vermeiden:
  • Prüfen, ob sich die URL geändert hat
  • Überprüfen, ob Daten kürzlich gescrapt wurden
  • Geschäftliche Logik vor dem Scrapen anwenden
Dies spart API-Credits und Ausführungszeit.
Batch-, Crawl- und Kartenoperationen sind asynchron:
  • Speichern Sie die zurückgegebene ID (batch_id, crawl_id, map_id)
  • Verwenden Sie einen Wait-Node, wenn Sie sofort abrufen
  • Erwägen Sie Webhook-Callbacks für den Abschluss
  • Richten Sie separate Workflows für die Abholung ein
Wählen Sie den richtigen Speicher basierend auf Ihren Bedürfnissen:
  • Google Sheets: Einfache Nachverfolgung, Teamzusammenarbeit
  • Airtable: Relationale Daten, reichhaltige Formatierung
  • Datenbank: Großangelegt, komplexe Abfragen
  • Notion: Wissensdatenbank, Dokumentation
Richten Sie die Überwachung für Ihre Scraping-Workflows ein:
  • Verwenden Sie Fehler-Workflows in n8n
  • Senden Sie Benachrichtigungen an Slack/E-Mail bei Fehlern
  • Verfolgen Sie die API-Nutzung im Olostep-Dashboard
  • Protokollieren Sie wichtige Metriken

Häufige Anwendungsfälle nach Branche

E-Commerce

  • Preisüberwachung: Verfolgen Sie Wettbewerberpreise in Echtzeit
  • Produktforschung: Entdecken Sie Trendprodukte und Marktlücken
  • Bestandsverfolgung: Überwachen Sie die Verfügbarkeit von Lagerbeständen
  • Rezensionsanalyse: Aggregieren und analysieren Sie Kundenrezensionen

Marketing & SEO

  • Inhaltserkennung: Finden Sie Inhaltsmöglichkeiten
  • Wettbewerbsanalyse: Verfolgen Sie Wettbewerbsstrategien
  • Backlink-Recherche: Entdecken Sie Linkmöglichkeiten
  • Keyword-Recherche: Extrahieren Sie Keyword-Daten aus Suchergebnissen

Vertrieb & Lead-Generierung

  • Lead-Anreicherung: CRM-Daten mit Webinformationen anreichern
  • Unternehmensrecherche: Unternehmensinformationen sammeln
  • Kontakterkennung: Entscheidungsträger finden
  • Wettbewerbsintelligenz: Wettbewerberbewegungen verfolgen

Forschung & Analytik

  • Datensammlung: Daten aus mehreren Quellen sammeln
  • Marktforschung: Branchentrends verfolgen
  • Akademische Forschung: Forschungsdaten sammeln
  • Preisintelligenz: Preisstrategien analysieren

Medien & Verlagswesen

  • Inhaltsaggregation: Inhalte von mehreren Seiten kuratieren
  • Nachrichtenüberwachung: Nachrichten und Erwähnungen verfolgen
  • Soziale Medien: Soziale Plattformen überwachen
  • Trend-Erkennung: Trendthemen identifizieren

Fehlerbehebung

Fehler: “Ungültiger API-Schlüssel”Lösungen:
  • Überprüfen Sie den API-Schlüssel vom Dashboard
  • Stellen Sie sicher, dass keine zusätzlichen Leerzeichen im API-Schlüssel vorhanden sind
  • Erstellen Sie die Anmeldeinformationen in n8n neu
  • Überprüfen Sie, ob der API-Schlüssel aktiv ist
Fehler: Inhaltsfelder sind leerLösungen:
  • Erhöhen Sie die “Wartezeit vor dem Scrapen”
  • Überprüfen Sie, ob die Website eine Anmeldung erfordert
  • Versuchen Sie ein anderes Format (HTML vs Markdown)
  • Überprüfen Sie, ob die URL zugänglich ist
  • Überprüfen Sie, ob die Website automatisierten Zugriff blockiert
Fehler: “Ungültiges JSON-Format für Batch-Array”Lösungen:
  • Verwenden Sie das Format: [{"url":"https://example.com","custom_id":"id1"}]
  • Stellen Sie sicher, dass die JSON-Syntax korrekt ist
  • Verwenden Sie den Code-Node, um URLs korrekt zu formatieren
  • Testen Sie JSON mit einem Online-Validator
Fehler: “Ratenlimit überschritten”Lösungen:
  • Verteilen Sie die Workflow-Ausführungen mit Wait-Nodes
  • Verwenden Sie Batch-Verarbeitung anstelle einzelner Scrapes
  • Aktualisieren Sie Ihren Olostep-Plan
  • Überprüfen Sie das Ratenlimit im Dashboard
Fehler: Bestimmte URLs werden nicht gescraptLösungen:
  • Überprüfen Sie das URL-Format (einschließlich http:// oder https://)
  • Überprüfen Sie, ob die URL eine Authentifizierung erfordert
  • Testen Sie die URL zuerst im Browser
  • Versuchen Sie es mit dem Länderparameter
  • Kontaktieren Sie den Support für blockierte Domains

Vorteile von n8n

Selbstgehostet

n8n ist selbstgehostet, was Ihnen vollständige Kontrolle über Ihre Workflows und Daten gibt. Keine Anbieterbindung, keine Daten verlassen Ihre Infrastruktur.

Keine Aufgabenlimits

Im Gegensatz zu cloudbasierten Automatisierungsplattformen setzt n8n keine Aufgabenlimits. Führen Sie so viele Workflows aus, wie Sie benötigen, ohne zusätzliche Kosten.

Open Source

n8n ist Open Source, sodass Sie es anpassen und erweitern können, um Ihren spezifischen Bedürfnissen gerecht zu werden.

Kosteneffektiv

Selbstgehostetes n8n ist kostenlos, mit optionalem Cloud-Hosting verfügbar. Zahlen Sie nur für die Nutzung der Olostep-API.

Preisgestaltung

Olostep berechnet basierend auf der API-Nutzung, unabhängig von n8n:
  • Scrapes: Bezahlung pro Scrape
  • Batches: Bezahlung pro URL im Batch
  • Crawls: Bezahlung pro gecrawlte Seite
  • Karten: Bezahlung pro Kartenoperation
Aktuelle Preise finden Sie unter olostep.com/pricing. n8n: Selbstgehostetes n8n ist kostenlos. Cloud-Hosting verfügbar mit optionalen kostenpflichtigen Plänen.

Support

Benötigen Sie Hilfe bei der n8n-Integration?

Dokumentation

Durchsuchen Sie die vollständigen API-Dokumente

Support-E-Mail

n8n-Community

Fragen Sie in der n8n-Community

Statusseite

Überprüfen Sie den API-Status

Verwandte Ressourcen

Scrapes API

Erfahren Sie mehr über den Scrapes-Endpunkt

Batches API

Erfahren Sie mehr über den Batches-Endpunkt

Crawls API

Erfahren Sie mehr über den Crawls-Endpunkt

Maps API

Erfahren Sie mehr über den Maps-Endpunkt

Python SDK

Verwenden Sie Olostep mit Python

LangChain-Integration

Erstellen Sie KI-Agenten mit LangChain

Erste Schritte

Bereit, Ihre Websuche, Scraping und Crawling-Workflows zu automatisieren?

Node installieren

Installieren Sie n8n-nodes-olostep und beginnen Sie mit dem Aufbau automatisierter Workflows
Verbinden Sie Olostep mit n8n und automatisieren Sie noch heute Ihre Webdatenextraktion!