olostep auszuführen.
Bei der Installation wird ein Postinstall-Schritt ausgeführt, der das passende Binary von den GitHub-Releases des Pakets herunterlädt. Wenn das fehlschlägt, überprüfe, ob ein Release für diese Paketversion und deine Plattform existiert, und installiere es erneut.
Installation
Voraussetzungen: Node.js 16+ (nur fürnpm / npx; die CLI selbst ist ein natives Binary).
API-Schlüssel
SetzeOLOSTEP_API_KEY in deiner Umgebung oder in einer .env-Datei im Verzeichnis, in dem du olostep ausführst.
Schlüssel erstellen: Olostep API-Schlüssel.
Ausgabe
| Flag | Verhalten |
|---|---|
--out <path> | Schreibe JSON in eine Datei (übergeordnete Verzeichnisse werden bei Bedarf erstellt). |
--out - | Schreibe JSON nur an stdout (UTF-8, eingerückt). Gut für Pipes und Unterprozess-Erfassung. |
--out weglässt, werden Dateien unter output/ gespeichert (siehe Standard --out-Pfade).
Befehle
Verwendeolostep <command> --help für jede Option. Die meisten Befehle akzeptieren --timeout (HTTP, Sekunden).
map: URLs entdecken
| Option | Beschreibung |
|---|---|
--out | Dateipfad oder - |
--top-n | Maximale URLs |
--search-query | Entdeckung leiten |
--include-subdomain / --no-include-subdomain | Subdomains |
--include-url / --exclude-url | Wiederholbare Muster |
--cursor | Paginierung |
--top-n, nicht --limit (entfernt).
answer: recherchierte Antwort
Fragt, bis die Antwort bereit ist.
| Option | Beschreibung |
|---|---|
--out | Datei oder - |
--json-format | Optionale strukturierte Ausgabevermutung (JSON-Objekt-String) |
--poll-interval / --poll-timeout | Abfrage (Sekunden) |
--json-format, nicht --model (entfernt).
scrape: eine URL
Formate: html, markdown, text, json, raw_pdf, screenshot (komma-getrennt; Standard markdown).
| Option | Beschreibung |
|---|---|
--formats | Komma-getrennt |
--country | Ländercode |
--wait-before-scraping | Ms zum Warten vor dem Scraping |
--payload-json | Erweiterte Optionen als JSON-Objekt-String |
--payload-file | Dasselbe, aus Datei (nicht zusammen mit --payload-json) |
scrape-get: nach Scrape-ID
crawl: Seiten-Crawl
Abrufformate: markdown, html, json.
Bemerkenswerte Flags: --max-pages, --max-depth, --include-subdomain, --include-external, --include-url, --exclude-url, --search-query, --top-n, --webhook, --crawl-timeout, --follow-robots-txt / --ignore-robots-txt, --formats, --pages-limit, --pages-search-query, --poll-seconds, --poll-timeout, --dry-run (Payload drucken, keine Anfrage).
batch-scrape: CSV
CSV-Spalten: custom_id oder id, und url.
| Option | Beschreibung |
|---|---|
--formats | markdown, html, json |
--country | Optional |
--parser-id | Strukturierter Extraktionsparser |
--poll-seconds, --log-every, --items-limit | Abfrage / Paginierung |
--dry-run | Nur Payload drucken |
batch-update: Batch-Metadaten
Erfordert eines von --metadata-json oder --metadata-file (JSON-Objekt).
Standard --out-Pfade
Wenn --out weggelassen wird:
| Befehl | Standard |
|---|---|
map | output/map.json |
answer | output/answer.json |
scrape | output/scrape.json |
scrape-get | output/scrape_get.json |
crawl | output/crawl_results.json |
batch-scrape | output/batch_results.json |
batch-update | output/batch_update.json |
Globale Flags
| Flag | Beschreibung |
|---|---|
-V, --version | Version |
-h, --help | Hilfe |