- Busque en la web para basar la IA en datos del mundo real (hechos, documentos, eventos)
- Obtenga el contenido en markdown de cualquier página web
- Descubra y filtre URLs relevantes dentro de un sitio web.
Instalación
Necesitas tener una clave API. Obtén la clave API en https://www.olostep.com/dashboard/api-keys. Puedes usar nuestra URL alojada remotamente o ejecutar el servidor localmente.URL alojada remotamente
Ejecutar con npx
Instalación Manual
Ejecutar en Claude Desktop
Añade esto a tu claude_desktop_config.json:Ejecutar en Claude Code
Ejecuta esto en tu terminalEjecutar en Cursor
Configuración manual
Para configurar Olostep MCP en Cursor:- Abre Configuración de Cursor (haz clic en el icono de configuración en la esquina superior derecha del IDE)
- Haz clic en MCP
- Haz clic en ”+ Añadir nuevo servidor MCP global”
- Introduce lo siguiente en el archivo mcp.json:
- Recuerda reemplazar
YOUR_API_KEYcon tu clave API real que puedes obtener del panel de Olostep - Ahora puedes cerrar la pestaña de configuración. Si es necesario, actualiza la lista de servidores MCP para ver las nuevas herramientas.
Si estás usando Windows y tienes problemas, intenta cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
La próxima vez que uses Cursor, automáticamente utilizará el MCP de Olostep cuando sea necesario. También puedes solicitar explícitamente usar el MCP de Olostep cuando necesites información actualizada de la web.
Ejecutar en Windsurf
Añade esto a tu ./codeium/windsurf/model_config.json:Herramientas Disponibles
- scrape_website: Extrae contenido de una URL única. Soporta múltiples formatos y renderizado de JavaScript.
- search_web: Busca en la web una consulta dada y devuelve resultados estructurados (no IA, basado en parser).
- answers: Busca en la web y devuelve respuestas impulsadas por IA en la estructura JSON que desees, con fuentes y citas.
- batch_scrape_urls: Extrae hasta 10k URLs al mismo tiempo. Perfecto para extracción de datos a gran escala.
- get_batch_results: Recupera el estado y el contenido extraído para un trabajo por lotes. Si está completo, obtiene los elementos y recupera el contenido para cada URL.
- create_crawl: Descubre y extrae de forma autónoma sitios web enteros siguiendo enlaces desde una URL de inicio.
- create_map: Obtén todas las URLs en un sitio web. Extrae URLs para descubrimiento y análisis del sitio.
- get_webpage_content: Recupera el contenido de una página web en formato markdown.
- get_website_urls: Busca y recupera URLs relevantes de un sitio web.