Was Sie erstellen können
Website scrapen
Extrahieren Sie Inhalte von jeder einzelnen URL in Markdown, HTML, JSON oder Text
URLs im Batch scrapen
Verarbeiten Sie große Listen von URLs parallel mit strukturierten Ausgaben
Crawl erstellen
Entdecken und scrapen Sie verlinkte Seiten, um vollständige Datensätze zu erstellen
Karte erstellen
Extrahieren Sie alle URLs von einer Website (sitemap-ähnliche Entdeckung)
KI-gestützte Antworten
Stellen Sie Fragen und erhalten Sie strukturierte JSON-Antworten mit Quellen
Schnellstart
1) Apify CLI installieren
2) Ihren Olostep API-Schlüssel erhalten
Vom Olostep Dashboard → API-Schlüssel.3) Den Olostep Actor lokal ausführen
olostep-tools/integrations/apify/storage/key_value_stores/default/INPUT.json
Beispiel-Eingabe:
4) Auf Apify (Cloud) bereitstellen
In der Apify-Konsole ausführen (Schritt für Schritt)
- Öffnen Sie Ihren Actor in der Apify-Konsole → Quelle → Eingabe.
- Im manuellen Tab sehen Sie ein sichtbares Feld „Olostep API Key“. Fügen Sie Ihren Schlüssel aus dem Olostep Dashboard ein.
- Wählen Sie eine Operation (standardmäßig „scrape“).
- Füllen Sie die relevanten Felder aus (für „scrape“, setzen Sie „URL zum Scrapen“).
- Klicken Sie auf Speichern → Starten.
- Wenn der Lauf abgeschlossen ist, öffnen Sie den Datensatz-Tab, um Ergebnisse herunterzuladen (JSON/CSV/Excel).
- Für „URL zum Scrapen“ können Sie mit oder ohne Schema einfügen. Wenn es fehlt, fügt der Actor automatisch
https://hinzu. - Wenn eine Seite viel JavaScript enthält und Sie einen Timeout sehen, setzen Sie „Warten vor dem Scrapen“ auf 2000–5000 ms und führen Sie es erneut aus.
Verfügbare Operationen
Website scrapen
Extrahieren Sie Inhalte von einer einzelnen URL. Ideal für Seitenebenen-Automatisierung.Muss “scrape” sein
Ihr Olostep API-Schlüssel (Bearer)
Die zu scrapende URL (muss http:// oder https:// enthalten)
Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode (z.B. “US”, “GB”, “CA”)
Optionale Wartezeit in ms für JavaScript-Rendering (0–10000)
Optionale Parser-ID (z.B. “@olostep/amazon-product”)
- id, url, status, formats
- markdown_content / html_content / json_content / text_content
- gehostete URLs (falls verfügbar), Seitenmetadaten
URLs im Batch scrapen
Verarbeiten Sie viele URLs gleichzeitig mit konsistenter Formatierung und Struktur.Muss “batch” sein
Ihr Olostep API-Schlüssel
JSON-Array von Objekten mit
Beispiel:
url und optional custom_idBeispiel:
[{"url":"https://example.com","custom_id":"site1"}]Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode
Optionale Wartezeit in ms für JS-Seiten
Optionale Parser-ID
- batch_id, status, total_urls, created_at, formats, country, parser, urls[]
Crawl erstellen
Folgen Sie Links und scrapen Sie mehrere Seiten von einer Start-URL.Muss “crawl” sein
Ihr Olostep API-Schlüssel
Start-URL für den Crawl
Maximale Seitenanzahl zum Crawlen
Folgen Sie Links auf der Seite
Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode
Optionale Parser-ID
- crawl_id, object, status, start_url, max_pages, follow_links, created, formats
Karte erstellen
Entdecken Sie alle URLs auf einer Website und bereiten Sie sich auf späteres Batch-Scraping vor.Muss “map” sein
Ihr Olostep API-Schlüssel
Die zu kartierende Website
Optionaler Abfragefilter
Begrenzen Sie die Anzahl der URLs
Einschlussmuster, z.B. “/products/**”
Ausschlussmuster, z.B. “/admin/**”
- map_id, object, website_url, total_urls, urls[], search_query, top_n
JSON-Beispiele kopieren und einfügen (Konsole → Eingabe → JSON)
Scrape
Batch
Crawl
Map
Answers
Beispiel-Workflows
Produkte entdecken und scrapen
Produkte entdecken und scrapen
- Karte erstellen → einschließen “/products/**”
- URLs parsen → Batch-Array erstellen
- URLs im Batch scrapen → Formate: JSON
- An Google Sheets / Airtable senden
Tägliche Inhaltsüberwachung
Tägliche Inhaltsüberwachung
- Actor planen (täglich)
- Website scrapen → Formate: Markdown
- Mit LLM zusammenfassen
- Auf Slack benachrichtigen
Wettbewerber-Wissensdatenbank
Wettbewerber-Wissensdatenbank
- Crawl erstellen (Blog/Dokumente)
- Ausgaben in Notion speichern
- Wöchentlich mit Zeitplan aktualisieren
Spezialisierte Parser
Olostep unterstützt Parser, um Daten für beliebte Seiten zu strukturieren.Amazon-Produkt
@olostep/amazon-product → Titel, Preis, Bewertung, Rezensionen, Bilder, VariantenGoogle-Suche
@olostep/google-search → Ergebnisse, Titel, Snippets, URLsGoogle Maps
@olostep/google-maps → Geschäftsinformationen, Rezensionen, Bewertungen, StandortWeitere Parser
Entdecken Sie E-Mail-Extraktoren, Social-Handle-Finder, Kalender-Link-Extraktoren und mehr
Beste Praktiken
Bevorzugen Sie Batch für 3+ URLs
Bevorzugen Sie Batch für 3+ URLs
Schneller, günstiger, einfacher zu überwachen und respektiert Ratenlimits.
Verwenden Sie angemessene Wartezeiten
Verwenden Sie angemessene Wartezeiten
JS-lastige Seiten: Erhöhen Sie
wait_before_scraping (z.B. 2000–5000ms).Filtern Sie vor dem Scrapen
Filtern Sie vor dem Scrapen
Vermeiden Sie unnötige Aufgaben — überprüfen Sie zuerst Änderungen, halten Sie den Deduplizierungsstatus.
Speichern Sie große Inhalte über gehostete URLs
Speichern Sie große Inhalte über gehostete URLs
Verwenden Sie gehostete Ausgaben, um Größenbeschränkungen für Nutzlasten in Apify-Flows zu umgehen.
Behandeln Sie asynchrone Operationen als langlaufend
Behandeln Sie asynchrone Operationen als langlaufend
Batch/Crawl/Map geben IDs zurück; später abrufen oder mit Verzögerung verketten.
Behandeln Sie vorübergehende Timeouts sauber
Behandeln Sie vorübergehende Timeouts sauber
Wenn Sie einen 504 oder vorübergehenden Timeout sehen, versucht der Actor automatisch einmal mit kurzer Wartezeit erneut.
Sie können auch „Warten vor dem Scrapen“ auf 2000–5000 ms für JS-lastige Seiten setzen.
Sie können auch „Warten vor dem Scrapen“ auf 2000–5000 ms für JS-lastige Seiten setzen.
Fehlerbehebung
Authentifizierung fehlgeschlagen
Authentifizierung fehlgeschlagen
- Überprüfen Sie den API-Schlüssel vom Dashboard
- Entfernen Sie nachfolgende Leerzeichen
- Geben Sie ihn im Apify-Eingabeformular erneut ein
Leerer Inhalt
Leerer Inhalt
- Erhöhen Sie die Wartezeit
- Überprüfen Sie, ob die URL öffentlich ist / nicht login-geschützt
- Versuchen Sie ein anderes Ausgabeformat
Ratenlimit überschritten
Ratenlimit überschritten
- Läufe über Zeitplan verteilen
- Bevorzugen Sie Batch für viele URLs
- Aktualisieren Sie den Olostep-Plan bei Bedarf
Blockierte oder dynamische Seiten
Blockierte oder dynamische Seiten
- Versuchen Sie den Länderparameter
- Passen Sie Wartezeit und Parser an
- Kontaktieren Sie den Support für Anleitung
Preisgestaltung
Olostep berechnet nach API-Nutzung (unabhängig von Apify):- Scrapes → pro Scrape
- Batches → pro URL
- Crawls → pro Seite
- Maps → pro Operation
https://olostep.com/pricing.
Sicherheit
- Ihr API-Schlüssel wird zur Laufzeit als Bearer-Token gesendet.
- Schlüssel nicht in die Versionskontrolle einchecken; Apify speichert Eingaben im Key-Value Store.
- In der lokalen Entwicklung halten Sie Schlüssel in
storage/key_value_stores/default/INPUT.json(gitignored).
Verwandte Ressourcen
Scrapes API
Extrahieren Sie LLM-freundliches Markdown, HTML, Text oder strukturiertes JSON von jeder URL.
Batches API
Verarbeiten Sie bis zu 10k URLs gleichzeitig und rufen Sie Ergebnisse später ab.
Crawls API
Entdecken und scrapen Sie den Inhalt einer Website rekursiv.
Maps API
Holen Sie sich alle URLs auf einer Website, um Batch-Scrapes vorzubereiten.
Support
Dokumentation
Vollständige API-Dokumentation
Support-E-Mail
Statusseite
Plattformstatus überprüfen
Apify-Dokumentation
Apify-Plattform- und SDK-Dokumentation