Zum Hauptinhalt springen
Kilo ist die All-in-One-Plattform für agentische Entwicklung mit Unterstützung für MCP (Model Context Protocol) Server. Der Olostep MCP Server integriert sich nahtlos in Kilo und verleiht deinem KI-Agenten leistungsstarke Webdaten-Fähigkeiten.

Funktionen

Der Olostep MCP Server bietet Zugriff auf 5 Kernfunktionen von Olostep:

Website scrapen

Extrahiere Inhalte von jeder einzelnen URL in mehreren Formaten (Markdown, HTML, JSON, Text)

Web durchsuchen

Durchsuche das Web und erhalte strukturierte, parserbasierte Ergebnisse

Antworten (KI)

Erhalte KI-gestützte Antworten mit natürlichen Sprachabfragen und Zitaten

Batch-URLs scrapen

Verarbeite bis zu 10.000 URLs parallel. Perfekt für groß angelegte Datenextraktion

Websites crawlen

Entdecke und scrape autonom ganze Websites, indem du Links folgst

Installation

1. Hole dir deinen API-Schlüssel

Hole dir deinen Olostep API-Schlüssel vom Olostep Dashboard.

2. Kilo konfigurieren

Erstelle oder bearbeite in deinem Projektverzeichnis .kilocode/mcp.json, um den Olostep MCP Server hinzuzufügen:
{
  "mcpServers": {
    "olostep": {
      "url": "https://mcp.olostep.com/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_OLOSTEP_API_KEY"
      }
    }
  }
}
Ersetze YOUR_OLOSTEP_API_KEY durch deinen tatsächlichen API-Schlüssel vom Olostep Dashboard.

3. Installation überprüfen

Starte Kilo und die Olostep-Tools sollten automatisch verfügbar sein:
kilo

Verfügbare Tools

Sobald konfiguriert, stehen deinem Kilo-Agenten die folgenden Olostep-Tools zur Verfügung:

scrape_website

Extrahiere Inhalte von einer einzelnen URL. Unterstützt mehrere Formate und JavaScript-Rendering. Beispielaufforderung:
Scrape den Inhalt von https://example.com und gib mir die Markdown-Version
Parameter:
  • url - Website-URL zum Scrapen (erforderlich)
  • format - Ausgabeformat: markdown, html, json oder text (Standard: markdown)
  • country - Ländercode für ortsspezifische Inhalte (z.B. “US”, “GB”)
  • wait_before_scraping - Wartezeit in Millisekunden für JavaScript-Rendering (0-10000)
  • parser - Optionaler Parser-ID für spezialisierte Extraktion (z.B. “@olostep/amazon-product”)

search_web

Durchsuche das Web und erhalte strukturierte, parserbasierte Ergebnisse. Beispielaufforderung:
Suche nach den neuesten Nachrichten über KI-Regulierungen in der EU
Parameter:
  • query - Suchanfrage (erforderlich)
  • country - Ländercode für ortsspezifische Ergebnisse

answers

Erhalte KI-gestützte Antworten aus Websuchen mit Quellen und Zitaten. Beispielaufforderung:
Was sind die Top 5 aufkommenden KI-Trends im Jahr 2026? Gib mir strukturierte Antworten mit Quellen.
Parameter:
  • query - Frage in natürlicher Sprache (erforderlich)
  • format - Ausgabeformat für Antworten (JSON-Struktur deiner Wahl)
  • country - Ländercode für ortsspezifische Suchen

batch_scrape_urls

Verarbeite mehrere URLs parallel. Perfekt für groß angelegte Datenextraktion. Beispielaufforderung:
Scrape diese 50 Produkt-URLs und extrahiere Titel, Preis und Beschreibung im JSON-Format
Parameter:
  • urls - Array von URLs zum Scrapen (erforderlich)
  • format - Ausgabeformat für alle URLs
  • country - Ländercode für ortsspezifische Inhalte
  • parser - Optionaler Parser-ID für alle URLs

create_crawl

Entdecke und scrape autonom ganze Websites, indem du Links von einer Start-URL folgst. Beispielaufforderung:
Crawl die Website beginnend mit https://example.com und extrahiere alle Produktseiten
Parameter:
  • start_url - Start-URL für den Crawl (erforderlich)
  • max_pages - Maximale Anzahl von Seiten zum Crawlen (Standard: 10)
  • follow_links - Ob Links gefolgt werden soll (Standard: true)

create_map

Extrahiere alle URLs von einer Website zur Analyse der Seitenstruktur und Inhaltserkennung. Beispielaufforderung:
Mappe alle URLs auf https://example.com, um die Seitenstruktur zu verstehen
Parameter:
  • website_url - Website zum Mappen (erforderlich)
  • search_query - Optionale Abfrage zur Filterung der Ergebnisse
  • top_n - Begrenzung der Anzahl zurückgegebener URLs

Beispiel-Workflows

Rechercheaufgabe mit Websuche

Lass den Kilo-Agenten Informationen aus dem Web sammeln:
Verwende das search_web-Tool, um aktuelle Artikel über LLM-Sicherheit zu finden,
und nutze dann das answers-Tool, um die wichtigsten Erkenntnisse mit Quellen zu synthetisieren.
Gib mir eine umfassende Zusammenfassung.

Produktdatenextraktion

Scrape mehrere Produktseiten:
Ich habe 100 Produkt-URLs von einer E-Commerce-Seite. Verwende batch_scrape_urls,
um Titel, Preis, Beschreibung und Verfügbarkeit von jedem zu extrahieren.
Formatiere die Ergebnisse als JSON.

Website-Entdeckung und -Analyse

Crawle und analysiere die Struktur einer Website:
Ich möchte die Struktur von https://example.com verstehen.
Verwende zuerst create_map, um alle URLs zu erhalten, und crawle dann die Hauptabschnitte
und gib mir eine Zusammenfassung der Inhaltsorganisation der Seite.

Umgebungsvariablen

Wenn du die lokale/stdio-Konfiguration verwendest, stelle sicher, dass deine Umgebung den API-Schlüssel gesetzt hat:
export OLOSTEP_API_KEY="your_api_key_here"
kilo
Oder in deiner .env Datei:
OLOSTEP_API_KEY=your_api_key_here

Fehlerbehebung

Tools erscheinen nicht in Kilo:
  • Überprüfe, ob .kilocode/mcp.json korrekt formatiert ist (gültiges JSON)
  • Stelle sicher, dass dein API-Schlüssel in der Konfiguration korrekt ist
  • Versuche, Kilo nach Konfigurationsänderungen neu zu starten
API-Schlüssel-Authentifizierungsfehler:
  • Überprüfe deinen API-Schlüssel vom Olostep Dashboard doppelt
  • Stelle sicher, dass keine zusätzlichen Leerzeichen oder Sonderzeichen im Schlüssel sind
Remote gehostetes MCP verbindet sich nicht:
  • Überprüfe deine Internetverbindung
  • Stelle sicher, dass https://mcp.olostep.com/mcp zugänglich ist
  • Stelle sicher, dass das Format des Authorization-Headers korrekt ist: Bearer YOUR_KEY

Mehr erfahren