Was du bauen kannst
Website scrapen
Extrahiere Inhalte von jeder einzelnen URL in Markdown, HTML, JSON oder Text
URLs im Batch scrapen
Verarbeite große Listen von URLs parallel mit strukturierten Ausgaben
Crawl erstellen
Entdecke und scrape verlinkte Seiten, um vollständige Datensätze zu erstellen
Karte erstellen
Extrahiere alle URLs von einer Website (sitemap-ähnliche Entdeckung)
KI-gestützte Antworten
Stelle Fragen und erhalte strukturierte JSON-Antworten mit Quellen
Schnellstart
1) Apify CLI installieren
2) Deinen Olostep API-Schlüssel erhalten
Vom Olostep Dashboard → API-Schlüssel.3) Den Olostep Actor lokal ausführen
olostep-tools/integrations/apify/storage/key_value_stores/default/INPUT.json
Beispiel-Eingabe:
4) Auf Apify (Cloud) bereitstellen
In der Apify-Konsole ausführen (Schritt für Schritt)
- Öffne deinen Actor in der Apify-Konsole → Quelle → Eingabe.
- Im manuellen Tab siehst du ein sichtbares Feld „Olostep API-Schlüssel“. Füge deinen Schlüssel vom Olostep Dashboard ein.
- Wähle eine Operation (Standard ist „scrape“).
- Fülle die relevanten Felder aus (für „scrape“, setze „URL zum Scrapen“).
- Klicke auf Speichern → Start.
- Wenn der Lauf beendet ist, öffne den Datensatz-Tab, um Ergebnisse herunterzuladen (JSON/CSV/Excel).
- Für „URL zum Scrapen“ kannst du mit oder ohne Schema einfügen. Wenn es fehlt, fügt der Actor automatisch
https://hinzu. - Wenn eine Seite stark in JavaScript ist und du ein Timeout siehst, setze „Warten vor Scrapen“ auf 2000–5000 ms und führe es erneut aus.
Verfügbare Operationen
Website scrapen
Extrahiere Inhalte von einer einzelnen URL. Ideal für Seitenebenen-Automatisierung.Muss “scrape” sein
Dein Olostep API-Schlüssel (Bearer)
Die URL zum Scrapen (muss http:// oder https:// enthalten)
Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode (z.B. “US”, “GB”, “CA”)
Optionale Wartezeit in ms für JavaScript-Rendering (0–10000)
Optionaler Parser-ID (z.B. “@olostep/amazon-product”)
- id, url, status, formats
- markdown_content / html_content / json_content / text_content
- gehostete URLs (falls verfügbar), Seitenmetadaten
URLs im Batch scrapen
Verarbeite viele URLs gleichzeitig mit konsistenter Formatierung und Struktur.Muss “batch” sein
Dein Olostep API-Schlüssel
JSON-Array von Objekten mit
Beispiel:
url und optionalem custom_idBeispiel:
[{"url":"https://example.com","custom_id":"site1"}]Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode
Optionale Wartezeit in ms für JS-Seiten
Optionaler Parser-ID
- batch_id, status, total_urls, created_at, formats, country, parser, urls[]
Crawl erstellen
Folge Links und scrape mehrere Seiten von einer Start-URL.Muss “crawl” sein
Dein Olostep API-Schlüssel
Start-URL für den Crawl
Maximal zu crawlende Seiten
Folge Links auf der Seite
Eine von: Markdown, HTML, JSON, Text
Optionaler Ländercode
Optionaler Parser-ID
- crawl_id, object, status, start_url, max_pages, follow_links, created, formats
Karte erstellen
Entdecke alle URLs auf einer Website und bereite sie für späteres Batch-Scraping vor.Muss “map” sein
Dein Olostep API-Schlüssel
Die zu kartierende Website
Optionale Abfragefilter
Begrenze die Anzahl der URLs
Einschlussmuster, z.B. “/products/**”
Ausschlussmuster, z.B. “/admin/**”
- map_id, object, website_url, total_urls, urls[], search_query, top_n
JSON-Beispiele zum Kopieren und Einfügen (Konsole → Eingabe → JSON)
Scrape
Batch
Crawl
Map
Answers
Beispiel-Workflows
Produkte entdecken und scrapen
Produkte entdecken und scrapen
- Karte erstellen → Einschluss “/products/**”
- URLs parsen → Batch-Array erstellen
- URLs im Batch scrapen → Formate: JSON
- An Google Sheets / Airtable senden
Tägliche Inhaltsüberwachung
Tägliche Inhaltsüberwachung
- Actor planen (täglich)
- Website scrapen → Formate: Markdown
- Mit LLM zusammenfassen
- Benachrichtigung auf Slack
Wissensdatenbank der Konkurrenz
Wissensdatenbank der Konkurrenz
- Crawl erstellen (Blog/Dokumente)
- Ausgaben in Notion speichern
- Wöchentlich mit Zeitplan aktualisieren
Spezialisierte Parser
Olostep unterstützt Parser zur Strukturierung von Daten für beliebte Seiten.Amazon-Produkt
@olostep/amazon-product → Titel, Preis, Bewertung, Rezensionen, Bilder, VariantenGoogle-Suche
@olostep/google-search → Ergebnisse, Titel, Snippets, URLsGoogle Maps
@olostep/google-maps → Unternehmensinformationen, Rezensionen, Bewertungen, StandortWeitere Parser
Entdecke E-Mail-Extraktoren, Social-Handle-Finder, Kalenderlink-Extraktoren und mehr
Best Practices
Bevorzuge Batch für 3+ URLs
Bevorzuge Batch für 3+ URLs
Schneller, günstiger, einfacher zu überwachen und respektiert Ratenlimits.
Verwende angemessene Wartezeiten
Verwende angemessene Wartezeiten
JS-lastige Seiten: Erhöhe
wait_before_scraping (z.B. 2000–5000ms).Filtere vor dem Scrapen
Filtere vor dem Scrapen
Vermeide unnötige Aufgaben — überprüfe zuerst Änderungen, halte den Deduplizierungszustand.
Speichere große Inhalte über gehostete URLs
Speichere große Inhalte über gehostete URLs
Verwende gehostete Ausgaben, um Größenbeschränkungen für Nutzlasten in Apify-Flows zu umgehen.
Behandle asynchrone Operationen als langlaufend
Behandle asynchrone Operationen als langlaufend
Batch/Crawl/Map geben IDs zurück; später abrufen oder mit Verzögerung verketten.
Gehe mit vorübergehenden Timeouts sauber um
Gehe mit vorübergehenden Timeouts sauber um
Wenn du einen 504 oder vorübergehenden Timeout siehst, versucht der Actor automatisch einmal mit kurzer Wartezeit erneut.
Du kannst auch „Warten vor Scrapen“ auf 2000–5000 ms für JS-lastige Seiten setzen.
Du kannst auch „Warten vor Scrapen“ auf 2000–5000 ms für JS-lastige Seiten setzen.
Fehlerbehebung
Authentifizierung fehlgeschlagen
Authentifizierung fehlgeschlagen
- Überprüfe den API-Schlüssel vom Dashboard
- Entferne nachfolgende Leerzeichen
- Erneut im Apify-Eingabeformular eingeben
Leerer Inhalt
Leerer Inhalt
- Wartezeit erhöhen
- Überprüfe, ob die URL öffentlich ist / nicht login-geschützt
- Versuche ein anderes Ausgabeformat
Ratenlimit überschritten
Ratenlimit überschritten
- Läufe über Zeitplan verteilen
- Bevorzuge Batch für viele URLs
- Upgrade des Olostep-Plans, falls nötig
Blockierte oder dynamische Seiten
Blockierte oder dynamische Seiten
- Versuche den Länderparameter
- Passe Wartezeit und Parser an
- Kontaktiere den Support für Anleitung
Preisgestaltung
Olostep berechnet nach API-Nutzung (unabhängig von Apify):- Scrapes → pro Scrape
- Batches → pro URL
- Crawls → pro Seite
- Maps → pro Operation
https://olostep.com/pricing.
Sicherheit
- Dein API-Schlüssel wird zur Laufzeit als Bearer-Token gesendet.
- Schlüssel nicht in die Versionskontrolle einchecken; Apify speichert Eingaben im Key-Value Store.
- In der lokalen Entwicklung, halte Schlüssel in
storage/key_value_stores/default/INPUT.json(gitignored).
Verwandte Ressourcen
Scrapes API
Extrahiere LLM-freundliches Markdown, HTML, Text oder strukturiertes JSON von jeder URL.
Batches API
Verarbeite bis zu 10k URLs gleichzeitig und rufe Ergebnisse später ab.
Crawls API
Entdecke und scrape rekursiv den Inhalt einer Website.
Maps API
Erhalte alle URLs auf einer Website, um Batch-Scrapes vorzubereiten.
Support
Apify Website
Apify-Plattform
Apify Docs
Apify-Plattform & SDK-Dokumentation
Dokumentation
Vollständige API-Dokumentation