Zum Hauptinhalt springen
Der verifizierte Olostep Web Scraper Node bietet dir sechs Operationen im visuellen Builder von n8n: eine URL scrapen, das Web durchsuchen, KI-Antworten erhalten, tausende URLs im Batch scrapen, eine Seite crawlen oder alle ihre Links mappen. Auf n8n ansehen →

Bevor du anfängst

  • Ein Olostep-Konto mit einem API-Schlüssel: kostenlos erhalten, keine Kreditkarte erforderlich. Deine ersten 500 Credits sind inklusive.
  • n8n läuft: entweder n8n Cloud oder eine selbst gehostete Instanz. Community Nodes müssen aktiviert sein (sie sind standardmäßig in den meisten Setups aktiviert).
  • Kein Coding erforderlich: Alles in diesem Leitfaden wird über den visuellen Editor von n8n durchgeführt.

Einrichtung

1

Suche nach dem Olostep Node

Öffne einen beliebigen Workflow, klicke auf + und suche nach Olostep. Wähle Olostep Web Scraper aus den Ergebnissen aus.Suche nach Olostep im n8n Node Picker
2

Installiere den Node

Klicke auf das Ergebnis, um das Node-Detailfenster zu öffnen, und klicke dann auf Node installieren. n8n installiert n8n-nodes-olostep und fordert dich auf, neu zu starten. Mach das, bevor du fortfährst.Olostep Web Scraper Node-Details mit Installations-Button
Wenn Community Nodes für deinen Arbeitsbereich deaktiviert ist, muss ein Administrator es zuerst aktivieren. Siehe den n8n Community Nodes Leitfaden.
3

Füge deinen API-Schlüssel hinzu

Öffne den Olostep Node in deinem Workflow, klicke auf Credential einrichten (im Parameter-Tab), füge deinen API-Schlüssel hinzu und klicke auf Speichern.Olostep Anmeldeformular in n8n mit API-SchlüsselfeldHol dir deinen Schlüssel vom Olostep Dashboard →
4

Verbinde und starte

Verbinde den Olostep Node mit einem Trigger und allen nachgelagerten Schritten, dann führe deinen Workflow aus.n8n Workflow-Canvas mit Zeitplan-Trigger verbunden mit Olostep Node

Aktionen

Website scrapen

Ziehe Inhalte von jeder URL als Markdown, HTML, JSON oder Klartext. Behandelt JS-gerenderte Seiten mit optionalen Wartezeiten und Länderzielausrichtung.

Suche

Führe eine Websuche durch und erhalte strukturierte Ergebnisse (Titel, URLs und Snippets) als JSON.

Antworten (KI)

Stelle eine Frage in natürlicher Sprache und erhalte eine Antwort mit zitierten Quellen. Nützlich vor LLM Nodes, wenn du fundierte Antworten benötigst.

Batch-URLs scrapen

Reiche bis zu 10.000 URLs in einem Job ein, die parallel verarbeitet werden. Gibt eine batch_id zurück; Ergebnisse asynchron abrufen.

Crawl erstellen

Beginne bei einer URL, folge Links und scrape alle Unterseiten. Gut für Dokumentationsseiten, Blogs oder vollständige Seitenaufnahme. Gibt eine crawl_id zurück.

Karte erstellen

Erhalte jede URL auf einer Seite, ohne Inhalte zu scrapen. Verwende es zur Entdeckung vor einem Batch-Job. Gibt eine map_id zurück.
Batch, Crawl und Map sind asynchron. Speichere die zurückgegebene ID und verwende einen Wait Node oder einen zweiten Workflow, um Ergebnisse abzurufen, sobald die Verarbeitung abgeschlossen ist.

Beispiel-Workflow: Lead-Anreicherung aus Google Sheets

Was es macht: Wenn du eine Unternehmens-URL in ein Google Sheet einfügst, scrapt dieser Workflow automatisch die Website des Unternehmens, extrahiert wichtige Informationen mit einem KI-Node und schreibt die Ergebnisse in dieselbe Zeile zurück, wodurch ein leeres Tabellenblatt in eine ausgefüllte Lead-Datenbank verwandelt wird. Verwendete Nodes: Google Sheets Trigger → Olostep Website scrapen → OpenAI → Code → Google Sheets aktualisieren Lead-Anreicherungs-Workflow in n8n: Google Sheets Trigger verbunden mit Olostep, OpenAI, Code und Google Sheets Update Nodes

Schritt 1: Richte dein Google Sheet ein

Erstelle ein Sheet mit diesen Spalten: Company URL, Industry, Description, Company Size, Enriched. Der Workflow liest aus Company URL und füllt den Rest aus.

Schritt 2: Füge einen Google Sheets Trigger hinzu

Füge in n8n einen Google Sheets Trigger Node hinzu. Setze das Ereignis auf Zeile hinzugefügt, zeige auf dein Sheet und setze es auf die Überwachung der Company URL Spalte. Jedes Mal, wenn du eine neue URL in das Sheet einfügst, wird dieser Workflow ausgelöst.

Schritt 3: Füge Olostep Website scrapen hinzu

Verbinde einen Olostep Web Scraper Node nach dem Trigger. Setze:
  • Aktion: Website scrapen
  • URL: {{ $json["Company URL"] }} (zieht die URL aus der neuen Zeile)
  • Ausgabeformat: Markdown
Markdown funktioniert hier am besten, da es Navigation, Werbung und Boilerplate entfernt. Der KI-Node im nächsten Schritt erhält sauberen Text über das Unternehmen anstelle von rohem HTML-Rauschen.

Schritt 4: Füge einen OpenAI Node hinzu

Verbinde einen OpenAI Node. Setze das Modell auf gpt-4o-mini (schnell und günstig für Extraktionsaufgaben) und verwende diesen Prompt:
Du bist ein Vertriebsforscher. Basierend auf dem untenstehenden Website-Inhalt des Unternehmens extrahiere:
1. Branche (ein Satz, z.B. "B2B SaaS", "E-Commerce", "Gesundheitswesen")
2. Ein-Satz-Unternehmensbeschreibung (max. 20 Wörter)
3. Geschätzte Unternehmensgröße (Startup / KMU / Mittelstand / Großunternehmen)

Gib nur ein JSON-Objekt mit den Schlüsseln zurück: industry, description, company_size.

Website-Inhalt:
{{ $json.markdownContent }}
Das markdownContent Feld ist das, was Olostep vom Scrape zurückgibt, als sauberer Klartext.

Schritt 5: Analysiere die KI-Antwort und schreibe zurück

Füge einen Code Node hinzu, um das JSON von OpenAI zu analysieren:
const parsed = JSON.parse($input.first().json.message.content);
return [{ json: parsed }];
Verbinde dann einen Google Sheets Node, der auf Zeile aktualisieren gesetzt ist. Mappe die Spalten:
  • Industry{{ $json.industry }}
  • Description{{ $json.description }}
  • Company Size{{ $json.company_size }}
  • EnrichedYes

Was du bekommst

Füge eine URL wie https://notion.so in dein Sheet ein, und innerhalb von ~10 Sekunden füllt sich die Zeile:
Company URLIndustryDescriptionCompany SizeEnriched
https://notion.soProductivity SaaSAll-in-one workspace for notes, docs, and databasesMid-marketYes
Von hier aus kannst du diesen Workflow erweitern: Füge eine Slack-Benachrichtigung hinzu, wenn die Anreicherung abgeschlossen ist, filtere nach Branche, bevor du zurückschreibst, oder ersetze Google Sheets durch HubSpot, um Kontakte direkt zu aktualisieren.

Vorlagen

Bereit zum Importieren von n8n Workflows, die mit Olostep erstellt wurden:

Dokumentationen crawlen → KI-Wissensdatenbank

Crawle Dokumentationsseiten mit Olostep und strukturiere die Ausgabe in eine KI-bereite Wissensdatenbank.

Google Maps Leads → Entscheidungsträger-Anreicherung

Scrape Geschäftskontakte von Google Maps und bereichere sie mit Informationen über Entscheidungsträger.

Nutzerbeschwerden analysieren → Erkenntnisbericht

Analysiere Beschwerden mit Olostep + Gemini und erstelle strukturierte Erkenntnisberichte in Google Docs.

Amazon-Produkt-Extraktion → Google Sheets

Extrahiere Amazon-Produkt-URLs und Metadaten mit Olostep und synchronisiere die Ergebnisse mit Sheets.
Alle Olostep Workflows auf n8n.io durchsuchen →

Parser

Füge eine Parser-ID in das Parser-Feld bei jeder Scrape- oder Batch-Aktion ein, um strukturierte Daten anstelle von rohen Inhalten zu erhalten:
ParserExtrahiert
@olostep/amazon-productTitel, Preis, Bewertung, Rezensionen, Bilder, Varianten
@olostep/google-searchErgebnis-Titel, URLs, Snippets
@olostep/google-mapsGeschäftsname, Adresse, Bewertung, Rezensionen
@olostep/extract-emailsE-Mail-Adressen von jeder Seite
@olostep/extract-socialsLinks zu sozialen Profilen (X, GitHub, LinkedIn, etc.)
@olostep/extract-calendarsGoogle Kalender und ICS-Links
Siehe die vollständige Liste im Olostep Parser Store →

Fehlerbehebung

Kopiere den Schlüssel direkt von olostep.com/dashboard ohne nachfolgende Leerzeichen. Lösche und erstelle das Credential in n8n neu, wenn der Fehler weiterhin besteht.
Erhöhe Warten vor dem Scrapen (versuche 2000–5000ms für JS-lastige Seiten). Bestätige, dass die URL öffentlich zugänglich ist, ohne dass ein Login erforderlich ist. Wenn eine bestimmte Domain konsequent fehlschlägt, kontaktiere info@olostep.com.
Das URLs zum Scrapen-Feld erwartet ein JSON-Array:
[
  { "url": "https://example.com/page-1", "custom_id": "p1" },
  { "url": "https://example.com/page-2", "custom_id": "p2" }
]
Verwende einen Code-Node upstream, um dieses Array aus deinen Daten zu erstellen, falls nötig.
Füge einen Wait Node zwischen den Scrape-Schritten hinzu oder wechsle zu Batch-URLs scrapen anstelle von einzelnen Scrapes in einer Schleife. Überprüfe die aktuelle Nutzung im Dashboard.
Auf n8n Cloud müssen Community Nodes von einem Arbeitsbereichsinhaber aktiviert werden. Bei selbst gehosteten Instanzen stelle sicher, dass N8N_COMMUNITY_PACKAGES_ENABLED=true in deiner Umgebung gesetzt ist. Siehe n8n’s Installationsleitfaden.

Verwandte Themen

Scrapes API

Vollständige Referenz für den Scrape-Endpunkt

Batches API

Wie Batch-Jobs funktionieren und wie man Ergebnisse abruft

Crawls API

Crawl-Konfiguration und Ergebnisabruf

Maps API

URL-Entdeckung und Filteroptionen

Loslegen

Bereit, deine Websuche, Scraping- und Crawling-Workflows zu automatisieren?

n8n Website

n8n Plattform

Installiere den Node

Installiere n8n-nodes-olostep und beginne mit dem Aufbau automatisierter Workflows
Verbinde Olostep mit n8n und automatisiere noch heute deine Webdatenextraktion!