- Cercare sul web per ancorare l’AI su dati del mondo reale (fatti, documenti, eventi)
- Ottenere il contenuto markdown di qualsiasi pagina web
- Scoprire e filtrare gli URL rilevanti all’interno di un sito web.
Installazione
Devi avere una chiave API. Ottieni la chiave API da https://www.olostep.com/dashboard/api-keys. Puoi utilizzare il nostro URL ospitato in remoto o eseguire il server localmenteURL ospitato in remoto
Esecuzione con npx
Installazione manuale
Esecuzione su Claude Desktop
Aggiungi questo al tuo claude_desktop_config.json:Esecuzione su Claude Code
Esegui questo nel tuo terminaleEsecuzione su Cursor
Configurazione manuale
Per configurare Olostep MCP in Cursor:- Apri le Impostazioni di Cursor (clicca sull’icona delle impostazioni in alto a destra dell’IDE)
- Clicca su MCP
- Clicca su ”+ Aggiungi nuovo server MCP globale”
- Inserisci quanto segue nel file mcp.json:
- Ricorda di sostituire
YOUR_API_KEYcon la tua chiave API effettiva che puoi ottenere dal dashboard di Olostep - Ora puoi chiudere la scheda delle impostazioni. Se necessario, aggiorna l’elenco dei server MCP per vedere i nuovi strumenti
Se stai usando Windows e hai problemi, prova cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
La prossima volta che usi Cursor, utilizzerà automaticamente Olostep MCP quando necessario. Puoi anche richiedere esplicitamente di usare Olostep MCP quando hai bisogno di informazioni aggiornate dal web
Esecuzione su Windsurf
Aggiungi questo al tuo ./codeium/windsurf/model_config.json:Strumenti Disponibili
- scrape_website: Estrai contenuti da un singolo URL. Supporta più formati e rendering JavaScript.
- search_web: Cerca sul web per una determinata query e restituisce risultati strutturati (non-AI, basato su parser).
- answers: Cerca sul web e restituisce risposte potenziate dall’AI nella struttura JSON desiderata, con fonti e citazioni.
- batch_scrape_urls: Estrai fino a 10k URL contemporaneamente. Perfetto per l’estrazione di dati su larga scala.
- get_batch_results: Recupera lo stato e il contenuto estratto per un lavoro batch. Se completato, recupera gli elementi e il contenuto per ogni URL.
- create_crawl: Scopri e estrai autonomamente interi siti web seguendo i link da un URL iniziale.
- create_map: Ottieni tutti gli URL su un sito web. Estrai URL per la scoperta e l’analisi del sito.
- get_webpage_content: Recupera il contenuto di una pagina web in formato markdown.
- get_website_urls: Cerca e recupera URL rilevanti da un sito web.
- google_search: Recupera dati strutturati dai risultati di ricerca di Google.