- Busque en la web para basarse en datos del mundo real (hechos, documentos, eventos)
- Obtenga el contenido en markdown de cualquier página web
- Descubra y filtre URLs relevantes dentro de un sitio web.
Instalación
Necesitas tener una clave API. Obtén la clave API desde https://www.olostep.com/dashboard/api-keys. Puedes usar nuestra URL alojada remotamente o ejecutar el servidor localmente.URL alojada remotamente
Ejecutando con npx
Instalación Manual
Ejecutando en Claude Desktop
Añade esto a tu claude_desktop_config.json:Ejecutando en Claude Code
Ejecuta esto en tu terminalEjecutando en Cursor
Configuración manual
Para configurar Olostep MCP en Cursor:- Abre Configuración de Cursor (haz clic en el icono de configuración en la parte superior derecha del IDE)
- Haz clic en MCP
- Haz clic en ”+ Agregar nuevo Servidor MCP global”
- Ingresa lo siguiente en el archivo mcp.json:
- Recuerda reemplazar
YOUR_API_KEYcon tu clave API real que puedes obtener desde el tablero de Olostep - Ahora puedes cerrar la pestaña de configuración. Si es necesario, actualiza la lista de servidores MCP para ver las nuevas herramientas.
Si estás usando Windows y tienes problemas, intenta cmd /c "set OLOSTEP_API_KEY=your-api-key && npx -y olostep-mcp"
La próxima vez que uses Cursor, utilizará automáticamente el MCP de Olostep cuando sea necesario. También puedes solicitar explícitamente usar el MCP de Olostep cuando necesites información actualizada de la web.
Ejecutando en Windsurf
Añade esto a tu ./codeium/windsurf/model_config.json:Herramientas Disponibles
- scrape_website: Extrae contenido de una sola URL. Soporta múltiples formatos y renderizado de JavaScript.
- search_web: Busca en la web una consulta dada y devuelve resultados estructurados (no IA, basado en parser).
- answers: Busca en la web y devuelve respuestas impulsadas por IA en la estructura JSON que desees, con fuentes y citas.
- batch_scrape_urls: Extrae hasta 10,000 URLs al mismo tiempo. Perfecto para extracción de datos a gran escala.
- get_batch_results: Recupera el estado y contenido extraído para un trabajo por lotes. Si está completo, obtiene elementos y recupera contenido para cada URL.
- create_crawl: Descubre y extrae de manera autónoma sitios web completos siguiendo enlaces desde una URL de inicio.
- create_map: Obtén todas las URLs en un sitio web. Extrae URLs para descubrimiento y análisis del sitio.
- get_webpage_content: Recupera contenido de una página web en formato markdown.
- get_website_urls: Busca y recupera URLs relevantes de un sitio web.
- google_search: Recupera datos estructurados de los resultados de búsqueda de Google.