Il Server MCP di Olostep offre strumenti di accesso web alle tue app AI. Permette alla tua AI di:Documentation Index
Fetch the complete documentation index at: https://docs.olostep.com/llms.txt
Use this file to discover all available pages before exploring further.
- Cercare sul web per ancorare l’AI a dati del mondo reale (fatti, documenti, eventi)
- Ottenere il contenuto markdown di qualsiasi pagina web
- Scoprire e filtrare URL rilevanti all’interno di un sito web.
Installazione
Hai bisogno di una chiave API. Ottieni la chiave API da https://www.olostep.com/dashboard/api-keys. Puoi utilizzare il nostro URL ospitato in remoto o eseguire il server localmente.URL ospitato in remoto
Esecuzione con npx
Installazione manuale
Esecuzione su Claude Desktop
Aggiungi questo al tuo claude_desktop_config.json:Esecuzione su Claude Code
Esegui questo nel tuo terminaleEsecuzione su Cursor
Configurazione manuale
Per configurare Olostep MCP in Cursor:- Apri le Impostazioni di Cursor (clicca sull’icona delle impostazioni in alto a destra dell’IDE)
- Clicca su MCP
- Clicca su ”+ Aggiungi nuovo server MCP globale”
- Inserisci quanto segue nel file mcp.json:
- Ricorda di sostituire
YOUR_API_KEYcon la tua chiave API effettiva che puoi ottenere dal dashboard di Olostep - Ora puoi chiudere la scheda delle impostazioni. Se necessario, aggiorna l’elenco dei server MCP per vedere i nuovi strumenti
Se stai usando Windows e hai problemi, prova cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
La prossima volta che usi Cursor, utilizzerà automaticamente l’Olostep MCP quando necessario. Puoi anche richiedere esplicitamente di usare l’Olostep MCP quando hai bisogno di informazioni aggiornate dal web.
Esecuzione su Windsurf
Aggiungi questo al tuo ./codeium/windsurf/model_config.json:Strumenti Disponibili
- scrape_website: Estrai contenuti da un singolo URL. Supporta più formati e rendering JavaScript.
- search_web: Cerca sul web per una determinata query e restituisce risultati strutturati (non AI, basato su parser).
- answers: Cerca sul web e restituisce risposte potenziate dall’AI nella struttura JSON desiderata, con fonti e citazioni.
- batch_scrape_urls: Raccogli fino a 10k URL contemporaneamente. Perfetto per l’estrazione di dati su larga scala.
- get_batch_results: Recupera lo stato e il contenuto raccolto per un lavoro batch. Se completato, recupera gli elementi e il contenuto per ogni URL.
- create_crawl: Scopri e raccogli autonomamente interi siti web seguendo i link da un URL di partenza.
- create_map: Ottieni tutti gli URL su un sito web. Estrai URL per la scoperta e l’analisi del sito.
- get_webpage_content: Recupera il contenuto di una pagina web in formato markdown.
- get_website_urls: Cerca e recupera URL rilevanti da un sito web.