n8n + MCP: Conecta Tus Agentes IA a Cualquier Herramienta de Negocio
n8n + MCP: Conecta Tus Agentes IA a Cualquier Herramienta de Negocio
El Model Context Protocol (MCP) resolvio un problema que freno a los agentes IA durante anos: como habla un modelo de IA con tus herramientas? Antes de MCP, cada integracion era personalizada — un conector para Slack, otro para tu base de datos, otro para tu CRM. Cada uno se rompia independientemente, requeria mantenimiento separado y te ataba a un proveedor de IA especifico.
MCP cambio eso. Con 97 millones de instalaciones a marzo de 2026, es ahora el estandar universal adoptado por Claude, ChatGPT, Gemini, Copilot, VS Code y — criticamente para automatizacion — n8n.
Este tutorial muestra como combinar el motor de workflows de n8n con MCP para construir agentes IA que usan tus herramientas reales de negocio.

Que Hace MCP (Version de 30 Segundos)
MCP es un protocolo estandar que permite a los modelos de IA descubrir y usar herramientas externas. Piensa en el como USB para IA — conecta una herramienta, y cualquier modelo de IA puede usarla.
flowchart LR
AI["Modelo IA<br/>(Ollama, Claude, GPT)"]
MCP["Protocolo MCP"]
AI <--> MCP
MCP <--> DB["Base de Datos"]
MCP <--> CRM["CRM"]
MCP <--> DOCS["Documentos"]
MCP <--> API["Tus APIs"]
MCP <--> LMS["Docebo LMS"]
style AI fill:#F5A623,color:#0B1628
style MCP fill:#059669,color:#FAFAFA
Sin MCP, escribes codigo de integracion personalizado para cada herramienta + cada modelo de IA. Con MCP, escribes un servidor MCP por herramienta, y cualquier modelo de IA puede usarla.
Por Que n8n + MCP Es Poderoso
n8n aporta tres cosas que MCP solo no proporciona:
- Orquestacion de workflows: MCP conecta IA a herramientas. n8n orquesta workflows multi-paso que usan esas conexiones — “busca el documento, analízalo, actualiza el CRM, notifica al equipo.”
- Diseno visual: Construye workflows de agentes arrastrando nodos, no escribiendo codigo.
- Self-hosted: Tu instancia de n8n corre localmente. Combinada con Ollama para inferencia, todo el pipeline se queda en tu hardware.
Construyendo un Workflow con Agente MCP
Requisitos Previos
- n8n instalado (recomendamos self-hosted)
- Ollama ejecutandose con un modelo capaz (
qwen2.5:7bo mejor) - Un servidor MCP para tu herramienta (ver “Servidores MCP Disponibles” abajo)
Paso 1: Configurar un Servidor MCP
Los servidores MCP exponen tus herramientas a los modelos de IA. Ejemplo usando el servidor MCP de sistema de archivos (permite a la IA leer/buscar documentos):
# Instalar el servidor MCP de sistema de archivos
npx @anthropic-ai/mcp-server-filesystem /ruta/a/tus/documentos
Esto inicia un servidor que expone lectura, busqueda y listado de archivos como herramientas MCP. Tu agente IA puede ahora preguntar “encuentra todos los contratos que mencionan clausulas de renovacion” y el servidor MCP traduce eso en operaciones de filesystem.
Paso 2: Crear el Workflow en n8n
En n8n, construye un workflow con estos nodos:
- Webhook Trigger — recibe consultas de usuarios u otros sistemas
- AI Agent Node — conecta con Ollama + herramientas MCP
- Code Node — procesa la respuesta del agente
- Output Node — envia resultados (email, Slack, respuesta webhook)
Paso 3: Definir el Comportamiento del Agente
El system prompt determina como tu agente usa las herramientas MCP:
Eres un analista de documentos para un bufete de abogados. Tienes acceso
al repositorio de documentos de la firma via herramientas MCP. Cuando te
hagan una pregunta:
1. Busca documentos relevantes usando la herramienta de busqueda
2. Lee los documentos mas relevantes
3. Analiza el contenido y proporciona una respuesta con fuentes
4. Siempre cita el nombre del documento y la seccion
Nunca inventes informacion. Si no encuentras documentos relevantes, dilo.
Paso 4: Probar y Desplegar
Ejecuta una consulta de prueba por el webhook:
curl -X POST http://localhost:5678/webhook/mcp-agent \
-H "Content-Type: application/json" \
-d '{"query": "Cuales son las condiciones de pago en el contrato Martinez?"}'
El agente: recibe la consulta → busca documentos via MCP → lee archivos relevantes → analiza con Ollama → devuelve una respuesta con fuentes. Todo localmente.
Servidores MCP Disponibles (10.000+)
El ecosistema MCP tiene ya 10.000+ servidores publicos. Los clave para negocios:
| Servidor MCP | Que Hace | Caso de Uso |
|---|---|---|
| Filesystem | Leer/buscar archivos locales | Q&A de documentos, analisis de contratos |
| PostgreSQL | Consultar bases de datos | Inteligencia de negocio, informes |
| Slack | Enviar/leer mensajes | Notificaciones, escalaciones |
| Google Drive | Acceder a docs en la nube | Analisis de documentos compartidos |
| GitHub | Gestionar repos, issues, PRs | Automatizacion de desarrollo |
| Stripe | Gestionar pagos | Procesamiento de facturas |
| Docebo | Integracion LMS | Analitica de formacion, progreso |
La integracion MCP de Docebo de abril 2026 es particularmente relevante — convierte tu LMS en una fuente de conocimiento para asistentes IA.
Ejemplo Real: Agente de Inteligencia Documental
Un workflow completo que desplegamos para bufetes y consultorias:
flowchart TD
QUERY["Consulta del Usuario<br/>'Cuales son los limites de<br/>responsabilidad en nuestros<br/>contratos con proveedores?'"]
QUERY --> AGENT["Agente n8n"]
AGENT --> SEARCH["MCP: Buscar<br/>Documentos"]
SEARCH --> READ["MCP: Leer<br/>Top 5 Resultados"]
READ --> ANALYZE["Ollama: Analizar<br/>(DeepSeek R1 14B)"]
ANALYZE --> FORMAT["Formatear Respuesta<br/>con Citas"]
FORMAT --> DELIVER["Email + Slack<br/>Notificacion"]
style QUERY fill:#1E293B,color:#FAFAFA
style AGENT fill:#F5A623,color:#0B1628
style ANALYZE fill:#059669,color:#FAFAFA
style DELIVER fill:#059669,color:#FAFAFA
El diferenciador clave: DeepSeek R1 con su razonamiento cadena-de-pensamiento muestra como llego a su analisis — no solo la conclusion.
La Arquitectura de Privacidad
Aqui es donde MCP local + n8n + Ollama supera a las alternativas cloud:
| Componente | Donde Corre | Datos Salen? |
|---|---|---|
| Motor de workflows n8n | Tu servidor | No |
| Servidor MCP | Tu servidor | No |
| Inferencia Ollama | Tu hardware | No |
| Almacenamiento de documentos | Tu filesystem | No |
| Exposicion total de datos | Cero |
Bajo el RGPD y la Ley de IA de la UE, el despliegue local elimina el riesgo de transferencia de datos por completo.
Para Empezar
- Instalar n8n:
docker run -it --rm -p 5678:5678 n8nio/n8n - Instalar Ollama:
curl -fsSL https://ollama.com/install.sh | sh && ollama pull qwen2.5:7b - Elegir un servidor MCP: Empieza con filesystem para Q&A de documentos
- Construir tu primer workflow: Usa el nodo AI Agent con herramientas MCP configuradas
- Probar con consultas reales: Alimentalo con preguntas de negocio reales
Para un punto de partida mas simple, consulta nuestro tutorial de RAG con n8n + Ollama que cubre lo basico de Q&A de documentos sin MCP.
Quieres que construyamos esto para ti? Agenda una evaluacion gratuita de 15 minutos — evaluaremos tu panorama de herramientas y disenaremos un workflow con agente MCP adaptado a tu negocio.
Tutoriales relacionados: n8n Automatizacion IA | n8n + Ollama RAG | Revision de Codigo con IA
Fuentes: Especificacion MCP | MCP 97M Instalaciones | Por Que Gano MCP (The New Stack) | n8n Agentes IA | MCP Roadmap 2026
Lecturas relacionadas
- Construye un agente IA que aprende solo con n8n: Tutorial del Learning Loop
- Crea un Pipeline de Contenido con IA usando n8n: De RSS a Blog
- Agentes IA para Automatización de PYMEs: 171% de ROI Medio en el Primer Ano
¿Listo para empezar?
VORLUX AI ayuda a empresas españolas y europeas a desplegar soluciones de IA que se quedan en tu hardware, bajo tu control. Ya necesites despliegue de IA en edge, integración LMS o consultoría de cumplimiento con la Ley de IA de la UE — podemos ayudarte.
Reserva una consulta gratuita para hablar de tu estrategia de IA, o explora nuestros servicios para ver cómo trabajamos.