Funktionen
Die Integration bietet 5 leistungsstarke Aktionen für die automatisierte Webdatenextraktion und KI-gestützte Recherche:Website scrapen
Batch-URLs scrapen
Crawl erstellen
Karte erstellen
KI-Antwort anfordern
Installation
1. Finden Sie Olostep in Zapier
Suchen Sie nach “Olostep” im Zapier-App-Verzeichnis oder beim Erstellen eines neuen Zaps:- Gehen Sie zu Olostep auf Zapier
- Klicken Sie auf “Zap erstellen”
- Suchen Sie im App-Auswahlmenü nach “Olostep”
- Wählen Sie die Olostep-App aus
2. Verbinden Sie Ihr Konto
Wenn Sie Olostep zum ersten Mal in einem Zap verwenden, werden Sie aufgefordert, Ihr Konto zu verbinden:- Klicken Sie auf “Bei Olostep anmelden”
- Geben Sie Ihren Olostep-API-Schlüssel ein
- Klicken Sie auf “Ja, weiter zu Olostep”
Verfügbare Aktionen
Website scrapen
Extrahieren Sie Inhalte von einer einzelnen URL. Unterstützt mehrere Formate und JavaScript-Rendering. Anwendungsfälle:- Überwachen Sie bestimmte Seiten auf Änderungen
- Extrahieren Sie Produktinformationen von E-Commerce-Websites
- Sammeln Sie Daten aus Nachrichtenartikeln oder Blogbeiträgen
- Ziehen Sie Inhalte für die Content-Aggregation
- Scrape-ID
- Gescrapte URL
- Markdown-Inhalt
- HTML-Inhalt
- JSON-Inhalt
- Textinhalt
- Status
- Zeitstempel
- Screenshot-URL (falls verfügbar)
- Seitenmetadaten
Wettbewerbspreise überwachen
Wettbewerbspreise überwachen
- URL: Wettbewerber-Produktseite
- Format: JSON
- Parser: @olostep/amazon-product
- Preisdaten zur Tracking-Tabelle hinzufügen
- Team über Preisänderungen informieren
Blogbeiträge extrahieren und speichern
Blogbeiträge extrahieren und speichern
- URL: {{Post-URL}}
- Format: Markdown
- Artikelinhalt in der Notion-Datenbank speichern
Lead-Anreicherung
Lead-Anreicherung
- URL: Unternehmenswebsite aus Tabelle
- Format: Markdown
- Unternehmensinformationen mit KI extrahieren
- Angereicherte Daten zurück zur Tabelle hinzufügen
Batch-URLs scrapen
Verarbeiten Sie mehrere URLs parallel (bis zu 100.000 gleichzeitig). Perfekt für die großflächige Datenextraktion. Anwendungsfälle:- Ganze Produktkataloge scrapen
- Daten aus mehreren Suchergebnissen extrahieren
- Listen von URLs aus Tabellen verarbeiten
- Massenhafte Inhaltsextraktion
[{"url":"https://example.com","custom_id":"site1"}]- Batch-ID (verwenden Sie diese, um Ergebnisse später abzurufen)
- Status
- Gesamtanzahl der URLs
- Erstellungszeitpunkt
- Angefordertes Format
- Ländercode
- Verwendeter Parser
Produktkatalog scrapen
Produktkatalog scrapen
- CSV/Liste in JSON-Array-Format konvertieren
- URLs: {{JSON-Array aus vorherigem Schritt}}
- Format: JSON
- Parser: @olostep/amazon-product
- Batch-ID an Ihr System zur Abholung senden
Tägliche Inhaltsüberwachung
Tägliche Inhaltsüberwachung
- Zu überwachende URLs abrufen
- In Batch-Array-Format konvertieren
- Alle URLs auf einmal verarbeiten
- Team benachrichtigen, dass das Scraping abgeschlossen ist
Crawl erstellen
Entdecken und scrapen Sie autonom ganze Websites, indem Sie Links folgen. Perfekt für Dokumentationsseiten, Blogs und Inhaltsrepositorien. Anwendungsfälle:- Ganze Dokumentationsseiten crawlen und archivieren
- Alle Blogbeiträge von einer Website extrahieren
- Wissensdatenbanken aus Webinhalten erstellen
- Änderungen an der Website-Struktur überwachen
- Crawl-ID (verwenden Sie diese, um Ergebnisse später abzurufen)
- Objekttyp
- Status
- Start-URL
- Maximale Seiten
- Links folgen
- Erstellungszeitstempel
- Formate
Dokumentationsseite archivieren
Dokumentationsseite archivieren
- Start-URL: https://docs.example.com
- Max. Seiten: 500
- Links folgen: true
- Format: Markdown
- Crawl-ID an Ihr Archivsystem senden
- Team benachrichtigen, dass der Crawl läuft
Wettbewerbsinhaltsanalyse
Wettbewerbsinhaltsanalyse
- Start-URL: Wettbewerber-Blog-URL
- Max. Seiten: 100
- Format: Markdown
- Auf Abschluss des Crawls warten
- Crawl-Daten zur Analyse speichern
Karte erstellen
Extrahieren Sie alle URLs von einer Website zur Inhaltserkennung und Analyse der Seitenstruktur. Anwendungsfälle:- Sitemaps und Seitenstrukturdiagramme erstellen
- Alle Seiten vor dem Batch-Scraping entdecken
- Defekte oder fehlende Seiten finden
- SEO-Audits und Analysen
- Karten-ID
- Objekttyp
- Website-URL
- Gesamtanzahl gefundener URLs
- URLs (JSON-Array)
- Suchanfrage
- Top-N-Limit
Entdecken und scrapen
Entdecken und scrapen
- URL: https://example.com
- Einschlussmuster: /products/**
- Top-N: 500
- URLs aus dem Kartenergebnis parsen
- URLs: {{URLs aus Karte}}
- Format: JSON
- Alle Produktdaten zur Tabelle hinzufügen
SEO-Site-Audit
SEO-Site-Audit
- URL: Ihre Website
- Top-N: 1000
- Alle URLs zur Nachverfolgung speichern
- Gesamtanzahl gefundener Seiten melden
KI-Antwort anfordern
Erhalten Sie KI-gestützte Antworten auf Fragen mithilfe von Websuche oder Ihren bereitgestellten Kontext-URLs. Perfekt für die Automatisierung von Recherchen, die Erstellung von Inhalten und die Datenanalyse. Anwendungsfälle:- Automatisierte Recherche mit Zitaten
- Inhalte aus mehreren URLs zusammenfassen
- Berichte mit Quellenangaben erstellen
- Fragen mit spezifischen Webseiten beantworten
- Inhaltsanalyse und -extraktion
- Antwort-ID
- Objekttyp
- Frage
- Antwort (Text)
- Antwort (Markdown)
- Antwort (JSON)
- Zitate (JSON-Array mit URLs, Titeln, Snippets)
- Erstellungszeitstempel
- Format
- Kontext-URLs
- Suchanfrage
- Anzahl der Quellen
Automatisierter Forschungsbericht
Automatisierter Forschungsbericht
- Frage: {{Slack-Nachricht}}
- Suchanfrage: Verwandte Suchbegriffe
- Anzahl der Quellen: 5
- Format: Markdown
- Zitate einbeziehen: true
- Mit KI-generierter Antwort und Zitaten antworten
Inhaltszusammenfassung aus URLs
Inhaltszusammenfassung aus URLs
- Frage: “Fassen Sie die wichtigsten Punkte dieser Seiten zusammen”
- Kontext-URLs: {{URLs aus Tabelle}}
- Format: Markdown
- Zitate einbeziehen: true
- Zusammenfassung mit Quellenlinks speichern
Wettbewerbsintelligenz
Wettbewerbsintelligenz
- Frage: “Was sind die neuesten Produktaktualisierungen und Preisänderungen?”
- Suchanfrage: site:competitor.com news OR updates
- Anzahl der Quellen: 10
- Format: JSON
- Wettbewerbsinformationen speichern
- Wöchentliche Wettbewerbsanalyse senden
FAQ-Auto-Antwort
FAQ-Auto-Antwort
- Frage: {{Kundenfrage}}
- Kontext-URLs: [“https://yoursite.com/docs”, “https://yoursite.com/faq”]
- Format: Text
- Zitate einbeziehen: true
- Mit KI-generierter Antwort an den Kunden antworten
Beliebte Workflow-Beispiele
E-Commerce-Preisüberwachung
Überwachen Sie Wettbewerberpreise und erhalten Sie sofortige Benachrichtigungen:Inhaltsaggregation
Aggregieren Sie Inhalte aus mehreren Quellen:Lead-Anreicherungs-Pipeline
Bereichern Sie Lead-Daten mit Webinformationen:Forschungsautomatisierung
Automatisieren Sie die Recherche aus mehreren Quellen:Social-Media-Überwachung
Verfolgen Sie Erwähnungen und Inhalte:Mehrstufige Workflows
Vollständige Produkt-Scraping-Pipeline
Erstellen Sie eine umfassende Produktdaten-Pipeline:Produkt-URLs entdecken
- Einschlussmuster:
/products/** - Ausschlussmuster:
/cart/**,/checkout/**
Produkte stapelweise verarbeiten
- Format: JSON
- Parser: Produktspezifischer Parser, falls verfügbar
In Datenbank speichern
- Verwenden Sie Airtable, Google Sheets oder Ihre Datenbank
SEO-Inhaltsstrategie
Analysieren Sie Wettbewerber und planen Sie Inhalte:Wettbewerberseiten kartieren
- Alle Blogbeiträge und Inhaltsseiten extrahieren
Inhalte scrapen
- Format: Markdown für einfache Analyse
KI-Analyse
- Inhaltslücken identifizieren
- Trendthemen finden
Spezialisierte Parser
Olostep bietet vorgefertigte Parser für beliebte Websites. Verwenden Sie sie mit demParser-Feld:
Google-Suche
@olostep/google-searchExtrahieren: Suchergebnisse, Titel, Snippets, URLsVerwendung von Parsern
Fügen Sie einfach die Parser-ID zum Parser-Feld hinzu:Integration mit beliebten Apps
Google Sheets
Perfekt für Datensammlung und -verfolgung:- Preisverfolgungstabellen
- Lead-Anreicherungsdatenbanken
- Inhaltsinventar
- Wettbewerbsanalysesheets
Airtable
Erstellen Sie leistungsstarke Datenbanken mit gescrapten Daten:- Produktkataloge
- Forschungsdatenbanken
- Inhaltskalender
- Linkdatenbanken
Slack
Erhalten Sie sofortige Benachrichtigungen:- Preisalarmierungen
- Inhaltsaktualisierungsbenachrichtigungen
- Fehlerüberwachung
- Tägliche Zusammenfassungen
HubSpot / Salesforce
Bereichern Sie CRM-Daten automatisch:- Lead-Anreicherung
- Unternehmensrecherche
- Wettbewerbsintelligenz
- Kontozuordnung
Notion
Erstellen Sie Wissensdatenbanken:- Dokumentationsspiegel
- Forschungsrepositorien
- Inhaltsbibliotheken
- Team-Wikis
Beste Praktiken
Batch-Verarbeitung für mehrere URLs verwenden
Batch-Verarbeitung für mehrere URLs verwenden
- Viel schneller (parallele Verarbeitung)
- Kosteneffizienter
- Einfacher zu verwalten
- Besser für Ratenlimits
Angemessene Wartezeiten einstellen
Angemessene Wartezeiten einstellen
- Einfache Seiten: 0-1000ms
- Dynamische Seiten: 2000-3000ms
- Schweres JavaScript: 5000-8000ms
Spezialisierte Parser verwenden
Spezialisierte Parser verwenden
- Erhalten Sie automatisch strukturierte Daten
- Zuverlässigere Extraktion
- Kein Bedarf an benutzerdefiniertem Parsing
- Von Olostep gewartet
Vor dem Scrapen filtern
Vor dem Scrapen filtern
- Prüfen, ob sich die URL geändert hat
- Überprüfen, ob Daten kürzlich gescrapt wurden
- Geschäftliche Logik vor dem Scrapen anwenden
Asynchrone Operationen handhaben
Asynchrone Operationen handhaben
- Speichern Sie die zurückgegebene ID (batch_id, crawl_id, map_id)
- Verwenden Sie eine Verzögerungsaktion, wenn Sie sofort abrufen
- Erwägen Sie Webhook-Rückrufe für den Abschluss
- Richten Sie separate Zaps für die Abholung ein
Ergebnisse richtig speichern
Ergebnisse richtig speichern
- Google Sheets: Einfache Nachverfolgung, Teamzusammenarbeit
- Airtable: Relationale Daten, reichhaltige Formatierung
- Datenbank: Großflächig, komplexe Abfragen
- Notion: Wissensbasis, Dokumentation
Überwachen und alarmieren
Überwachen und alarmieren
- Verwenden Sie Fehlerpfade in Zaps
- Senden Sie Benachrichtigungen an Slack/E-Mail bei Fehlern
- Verfolgen Sie die API-Nutzung im Olostep-Dashboard
- Wichtige Metriken protokollieren
Häufige Anwendungsfälle nach Branche
E-Commerce
- Preisüberwachung: Wettbewerberpreise in Echtzeit verfolgen
- Produktrecherche: Trendprodukte und Marktlücken entdecken
- Bestandsverfolgung: Verfügbarkeit überwachen
- Bewertungsanalyse: Kundenbewertungen aggregieren und analysieren
Marketing & SEO
- Inhaltserkennung: Inhaltsmöglichkeiten finden
- Wettbewerbsanalyse: Wettbewerbsstrategien verfolgen
- Backlink-Recherche: Linkmöglichkeiten entdecken
- Keyword-Recherche: Keyword-Daten aus Suchergebnissen extrahieren
Vertrieb & Lead-Generierung
- Lead-Anreicherung: CRM-Daten mit Webinformationen anreichern
- Unternehmensrecherche: Unternehmensinformationen sammeln
- Kontakterkennung: Entscheidungsträger finden
- Wettbewerbsintelligenz: Wettbewerberbewegungen verfolgen
Forschung & Analyse
- Datensammlung: Daten aus mehreren Quellen sammeln
- Marktforschung: Branchentrends verfolgen
- Akademische Forschung: Forschungsdaten sammeln
- Preisintelligenz: Preisstrategien analysieren
Medien & Verlagswesen
- Inhaltsaggregation: Inhalte von mehreren Websites kuratieren
- Nachrichtenüberwachung: Nachrichten und Erwähnungen verfolgen
- Soziale Medien: Soziale Plattformen überwachen
- Trenddetektion: Trendthemen identifizieren
Fehlerbehebung
Authentifizierung fehlgeschlagen
Authentifizierung fehlgeschlagen
- API-Schlüssel vom Dashboard überprüfen
- Sicherstellen, dass keine zusätzlichen Leerzeichen im API-Schlüssel vorhanden sind
- Ihr Olostep-Konto in Zapier erneut verbinden
- Überprüfen, ob der API-Schlüssel aktiv ist
Scrape liefert leere Inhalte
Scrape liefert leere Inhalte
- “Wartezeit vor dem Scrapen” erhöhen
- Überprüfen, ob die Website eine Anmeldung erfordert
- Anderes Format ausprobieren (HTML vs Markdown)
- Überprüfen, ob die URL zugänglich ist
- Überprüfen, ob die Website automatisierten Zugriff blockiert
Batch-Array-Formatfehler
Batch-Array-Formatfehler
- Format verwenden:
[{"url":"https://example.com","custom_id":"id1"}] - Sicherstellen, dass die JSON-Syntax korrekt ist
- Code-Schritt verwenden, um URLs korrekt zu formatieren
- JSON mit Online-Validator testen
Ratenlimit überschritten
Ratenlimit überschritten
- Zap-Läufe mit Verzögerungen auseinanderziehen
- Batch-Verarbeitung anstelle von Einzelscrapes verwenden
- Ihren Olostep-Plan upgraden
- Ratenlimit im Dashboard überprüfen
URL nicht gescrapt
URL nicht gescrapt
- URL-Format überprüfen (http:// oder https:// einfügen)
- Überprüfen, ob die URL eine Authentifizierung erfordert
- URL zuerst im Browser testen
- Mit Länderparameter versuchen
- Support für blockierte Domains kontaktieren
Zapier-Beschränkungen & Workarounds
Aufgabenlimits
Zapier hat Aufgabenlimits basierend auf Ihrem Plan. Jede Olostep-Aktion zählt als 1 Aufgabe. Workaround: Verwenden Sie Batch-Verarbeitung, um mehrere URLs als eine einzige Aufgabe zu scrapen.Ausführungszeit
Zaps laufen nach 30 Sekunden ab. Crawls und große Batches können länger dauern. Workaround: Speichern Sie die ID und rufen Sie Ergebnisse in einem separaten Zap ab oder verwenden Sie Webhooks.Datengröße
Zapier hat Beschränkungen für die Datengröße pro Aufgabe. Workaround: Verwenden Sie gehostete URLs in der Ausgabe, um große Inhalte separat abzurufen.Polling vs. Instant
Auslöser sind polling-basiert (alle 5-15 Minuten überprüfen). Workaround: Verwenden Sie Webhooks für sofortige Benachrichtigungen oder planen Sie zu bestimmten Zeiten.Preisgestaltung
Olostep berechnet basierend auf der API-Nutzung, unabhängig von Zapier:- Scrapes: Pro Scrape bezahlen
- Batches: Pro URL im Batch bezahlen
- Crawls: Pro gecrawlte Seite bezahlen
- Maps: Pro Kartenoperation bezahlen