Docs / Agentic AI / Protocolos y Herramientas

Protocolos y Herramientas

Comparativa de herramientas de desarrollo, protocolos (MCP, A2A, ACP), frameworks de agentes (LangGraph, CrewAI) y bases de datos vectoriales.

Última actualización: Febrero 2026


Protocolos de Comunicación

MCP — Model Context Protocol

Qué es: Protocolo abierto de Anthropic (noviembre 2024) que estandariza cómo los agentes se conectan a herramientas, datos y sistemas externos. Es la capa vertical: conecta al agente con su entorno.

Analogía: MCP es como USB para agentes — un estándar universal para “enchufar” herramientas a cualquier agente.

Arquitectura:

plaintext
MCP Host (tu aplicación)
  └── MCP Client (integrado en el agente)
        └── MCP Server 1 (GitHub)
        └── MCP Server 2 (Slack)
        └── MCP Server 3 (Base de datos)

Conceptos clave:

  • MCP Host: La aplicación que aloja al agente (Claude Desktop, IDE, CLI)
  • MCP Client: Componente dentro del host que gestiona la comunicación con servers
  • MCP Server: Servicio que expone herramientas, recursos, y prompts. Puede ser local (proceso) o remoto (HTTP)
  • Tools: Funciones que el agente puede llamar (read_file, search, create_issue)
  • Resources: Datos que el server expone para que el agente lea (archivos, configuraciones)
  • Prompts: Templates de prompts que el server sugiere al agente

Transporte:

  • stdio: Comunicación por stdin/stdout (para servers locales como procesos hijo)
  • HTTP + SSE: Para servers remotos (Server-Sent Events para streaming)

Estado actual (2026): Adopción masiva. Miles de MCP servers disponibles. Soportado por Claude, Cursor, VS Code (Copilot), y la mayoría de frameworks. La simplicidad fue clave para su adopción — pero funcionalidades avanzadas como auth, memory cross-server, y discovery dinámico aún están en desarrollo.

Riesgo conocido: Primer MCP server malicioso descubierto in the wild en septiembre 2025. Supply chain security es un problema activo.


A2A — Agent-to-Agent Protocol

Qué es: Protocolo abierto de Google (abril 2025), ahora bajo Linux Foundation. Estandariza cómo los agentes se comunican entre sí. Es la capa horizontal: conecta agentes con otros agentes.

Analogía: Si MCP es USB (agente ↔ herramientas), A2A es HTTP (agente ↔ agente). Un lenguaje común para que agentes de diferentes proveedores colaboren.

Conceptos clave:

  • Agent Card: JSON que describe las capacidades del agente (nombre, descripción, skills, endpoints, autenticación). Es el “curriculum” que otros agentes leen para decidir si este agente les puede ayudar
  • Client Agent: El agente que inicia la comunicación y envía tareas
  • Remote Agent / Service Agent: El agente que recibe tareas y las ejecuta
  • Task: Unidad de trabajo con lifecycle definido (submitted → working → input-required → completed → failed → canceled)
  • Messages: Comunicación entre agentes con “parts” tipadas (texto, archivos, datos)
  • Artifacts: Resultados persistentes de una tarea (archivos generados, datos procesados)

Principios de diseño:

  1. Embrace agentic capabilities (comunicación no estructurada, negociación)
  2. Built on existing standards (HTTP, SSE, JSON-RPC)
  3. Secure by default (auth schemes compatibles con OpenAPI)
  4. Support long-running tasks (horas o días, con feedback en tiempo real)
  5. Modality agnostic (texto, audio, video)

Partners: 50+ incluyendo Atlassian, Salesforce, SAP, LangChain, MongoDB, PayPal.


ACP — Agent Communication Protocol

Qué es: Protocolo de IBM/BeeAI (marzo 2025), bajo Linux Foundation. Similar a A2A pero optimizado para entornos locales y controlados.

Diferencias con A2A:

  • Memory nativa: Los agentes pueden compartir memoria entre sí (A2A no)
  • Pausa/reanudación: Soporte nativo para long-running tasks con Human-in-the-Loop
  • Agent discovery offline: Los agentes se describen en build time, no requieren discovery dinámico
  • REST-based: Comunicación más ligera que A2A
  • Open governance: Linux Foundation desde el inicio

Cuándo usar ACP vs A2A:

  • A2A: Cuando necesitas interoperabilidad cross-platform entre agentes de diferentes proveedores en la nube
  • ACP: Cuando necesitas comunicación local de baja latencia en entornos controlados (edge, manufacturing)

Relación entre protocolos

plaintext
MCP:  Agent ←→ Tools/Data     (vertical, un agente con su entorno)
A2A:  Agent ←→ Agent           (horizontal, cross-platform, cloud)
ACP:  Agent ←→ Agent           (horizontal, local, low-latency)

Los tres son complementarios:

  • Un agente usa MCP para conectarse a sus herramientas
  • Usa A2A para colaborar con agentes externos de otros proveedores
  • Usa ACP para coordinarse con agentes locales del mismo sistema

Frameworks de Agentes

LangChain / LangGraph

LangChain es el framework más popular para construir aplicaciones con LLMs. Proporciona abstracciones para chains, prompts, tools, memory, y retrieval.

LangGraph (1.0 en octubre 2025) es la evolución para agentes complejos. Modelo de ejecución basado en grafos dirigidos con soporte para ciclos, condicionales, y ejecución paralela. ~400 empresas en producción, ~90M downloads mensuales.

Cuándo usar: Cuando necesitas un framework completo con ecosistema rico. Curva de aprendizaje significativa. Puede ser over-engineering para tareas simples.

CrewAI

Framework para orquestación multi-agente basada en roles. Defines “crews” de agentes con roles (researcher, writer, coder), cada uno con sus herramientas y objetivos.

Cuándo usar: Multi-agente con roles claros. Más simple que LangGraph para el caso de uso que resuelve. Limitaciones de escala reportadas después de 6-12 meses en producción.

AutoGen (Microsoft)

Framework para sistemas multi-agente conversacionales. Popularizó el patrón de “group chat” entre agentes. Recientemente fusionado con Semantic Kernel.

Cuándo usar: Sistemas multi-agente con interacciones tipo chat. Bueno para prototipado rápido.

OpenAI Agents SDK

SDK oficial de OpenAI para construir agentes. Introduce el handoff pattern (traspaso entre agentes) como primitivo de primera clase.

Google ADK (Agent Development Kit)

Framework de Google para construir agentes con soporte nativo de A2A, MCP, y Vertex AI Agent Engine como runtime managed.

Amazon Bedrock AgentCore

Plataforma managed framework-agnostic (octubre 2025). Puede ejecutar LangGraph, CrewAI, Google ADK, u OpenAI Agents SDK sobre infraestructura enterprise con policy enforcement determinista.

LlamaIndex

Framework especializado en RAG y data-aware agents. Más enfocado que LangChain en el aspecto de retrieval y conectores de datos.

Anthropic: Building Blocks

Anthropic recomienda no usar frameworks complejos y en su lugar construir con LLM APIs directamente. Su guía “Building Effective Agents” propone workflows compositivos simples (prompt chaining, routing, parallelization) antes de saltar a agentes autónomos.


Herramientas de Agentic Coding

HerramientaTipoModeloFortaleza
Claude CodeTerminal interactivoClaudeBest-in-class para coding interactivo
CursorIDE (VS Code fork)MultiLa experiencia IDE más completa
GitHub CopilotIDE + Agent modeMultiIntegración nativa con VS Code y GitHub
AiderTerminalMultiPionero en agentes CLI, open source
ArchitectHeadless / CIMultiDiseñado para CI/CD y automatización sin supervisión
Codex CLITerminalOpenAICLI oficial de OpenAI para coding
Windsurf (Codeium)IDEMultiFlujo de “cascade” para coding
DevinAutónomo webPropioAgente autónomo completo (controversial en resultados reales)

Diferencia clave:

  • IDE agents (Cursor, Copilot): Tú estás delante, el agente te asiste
  • Terminal agents (Claude Code, Aider): Tú supervisas, el agente ejecuta
  • Headless agents (Architect): El agente ejecuta solo, tú revisas el resultado

Herramientas de Guardrails

HerramientaProveedorEspecialidad
NeMo GuardrailsNVIDIAOrchestration de múltiples rails, content safety, jailbreak detection. Open source + microservice
Guardrails AIGuardrails AIValidación de output estructurado (JSON schema), pydantic-based
LLama GuardMetaContent safety classifier basado en Llama
AI GuardDatadogReal-time guardrails en producción (prompt injection, PII, tool misuse)
Galileo Luna-2GalileoEvaluadores sub-200ms para guardrails en tiempo real
SafironResearchPre-execution guardrail — evalúa el plan del agente ANTES de ejecutar

Tipos de guardrails por momento:

plaintext
INPUT → [Input Guardrails] → LLM → [Output Guardrails] → User

                     [Execution Guardrails]

                        Tool Calls
  1. Pre-execution: Evalúan el plan del agente antes de actuar (Safiron)
  2. In-execution: Limitan acciones durante ejecución (protected files, blocked commands)
  3. Post-execution: Validan el resultado (quality gates, LLM-as-Judge)

Herramientas de Evaluación

Eval Frameworks

  • Braintrust: Plataforma de evaluación y logging
  • Ragas: Evaluación de RAG (faithfulness, relevance, etc.)
  • DeepEval: Open source, 14+ métricas para LLM evaluation
  • Promptfoo: CLI para evaluar prompts con test suites

Amazon 2026 Evaluation Framework

Framework de 3 capas publicado por Amazon:

  1. Response Quality: Correctness, faithfulness, helpfulness
  2. Task Completion: Goal success, accuracy
  3. Tool Use: Selection accuracy, parameter accuracy, error rates

20+ métricas específicas. Estándar emergente de referencia para evaluación de agentes.


Vector Stores (Bases de Datos Vectoriales)

Para almacenar y buscar embeddings en sistemas RAG.

Base de datosTipoNota
PineconeCloud managedEl más popular para producción
WeaviateOpen source + cloudHybrid search nativo
ChromaOpen sourceLigero, developer-friendly, bueno para prototipos
QdrantOpen source + cloudRust-based, muy rápido
MilvusOpen sourceEscalable, CNCF project
pgvectorExtensión PostgreSQLSi ya tienes Postgres, no necesitas otra DB
LanceDBOpen sourceServerless, embeddable

Plataformas de Deployment

Vertex AI Agent Engine (Google)

Runtime managed para agentes. Gestiona lifecycle, orquesta tools, y proporciona razonamiento. Soporte nativo de A2A y MCP.

Amazon Bedrock AgentCore

Plataforma managed framework-agnostic. Ejecuta agentes de cualquier framework con infraestructura enterprise, policy enforcement, y guardrails.

Azure AI Agent Service

Servicio managed de Microsoft para agentes. Integración profunda con Azure OpenAI y Semantic Kernel.


Estándares Relevantes

EstándarQué defineEstado
OpenTelemetry GenAISemantic conventions para LLM/agent tracingEstándar de facto
OpenInferenceConvenciones de tracing para AI/ML (Arize)Complementario a OTel
OWASP Top 10 Agentic10 categorías de riesgo para agentes (dic 2025)Publicado, 100+ contributors
NIST AI RMFFramework de gestión de riesgos de IAPublicado; Agentic AI Initiative (2026)
EU AI ActRegulación europea de IAEn vigor progresivo 2025-2026
ISO/IEC 42001Sistema de gestión de IAPublicado
MITRE ATLASFramework de amenazas adversariales para AI/MLReferencia para red teaming
SLSASupply chain security levelsPara MCP servers y tools
Sigstore/CosignVerificación de integridad de artefactosPara firmar MCP servers

Glosario Rápido A-Z

TérminoDefinición breve
A2AAgent-to-Agent Protocol. Comunicación horizontal entre agentes (Google/Linux Foundation)
ACPAgent Communication Protocol. Comunicación local entre agentes (IBM/BeeAI)
Agent CardJSON que describe capacidades de un agente para discovery (A2A)
Agent LoopCiclo think→act→observe que ejecuta un agente
Agentic AIIA que actúa autónomamente persiguiendo objetivos
Auto-reviewRevisión automática del trabajo del agente con contexto limpio
Batch APIAPI para enviar tareas masivas con descuento (~50%)
BudgetLímite de gasto (tokens o dinero) por tarea/sesión
Chain of ThoughtRazonamiento paso a paso del LLM
CheckpointPunto de restauración (git commit) antes de cambios del agente
Circuit BreakerPatrón que corta ejecución tras fallos repetidos
Clean ContextTécnica de resetear contexto entre iteraciones del loop
Computer UseCapacidad del agente de interactuar con interfaces gráficas
Constitutional AIEntrenamiento del LLM con principios/constitución (Anthropic)
Context WindowCantidad máxima de tokens que un LLM puede procesar
Dry RunEjecución simulada sin aplicar cambios reales
ElicitationEl agente pide proactivamente clarificación al usuario
EmbeddingsVectores numéricos que representan significado semántico de texto
Exit CodesCódigos de salida semánticos para integración con CI/CD
Extended ThinkingRazonamiento largo nativo dentro del modelo antes de responder
Few-ShotDar ejemplos al LLM del formato/respuesta esperado
Function CallingCapacidad del LLM de invocar funciones externas
Graceful ShutdownCierre limpio del agente sin dejar estado inconsistente
GroundingAsegurar que respuestas están basadas en datos verificables
GuardrailsRestricciones que limitan qué puede hacer el agente
HallucinationLLM genera información falsa con apariencia de factual
HandoffUn agente transfiere control a otro agente especializado
HITLHuman-in-the-Loop. Humano aprueba/rechaza acciones del agente
HooksFunciones que se ejecutan en puntos del lifecycle del agente
Hybrid SearchCombinar búsqueda vectorial + keyword para mejor retrieval
LLM GatewayCapa centralizada entre agentes y proveedores de LLM
LLM-as-a-JudgeUsar un LLM para evaluar output de otro agente/LLM
LATSLanguage Agent Tree Search (ToT + MCTS)
Least AgencyPrincipio: dar mínima autonomía necesaria al agente
MCPModel Context Protocol. Conexión agente ↔ herramientas (Anthropic)
Memory HygienePrácticas de gestión/limpieza de memoria a largo plazo
Model RouterSistema que enruta cada petición al modelo óptimo
Multi-AgentSistema con múltiples agentes coordinados
OpenTelemetryEstándar abierto de observabilidad (trazas, métricas, logs)
Parallel RunsEjecutar misma tarea con N agentes/modelos simultáneamente
PipelineSecuencia de pasos predefinidos en YAML
Planning AgentAgente que genera plan completo antes de ejecutar
Prompt CachingCachear parte estática del prompt para reducir coste/latencia
Prompt InjectionAtaque: inyectar instrucciones maliciosas en datos que procesa el agente
Quality GateValidación obligatoria que debe pasar para completar tarea
RAGRetrieval Augmented Generation. Buscar info antes de generar
Ralph LoopLoop fix→test→verify hasta que checks pasen o budget se agote
ReActReason + Act. Patrón Thought→Action→Observation
RerankingPaso que reordena resultados de búsqueda por relevancia
ReflectionEl agente evalúa su propio resultado y ajusta estrategia
ReportArtefacto generado por el agente documentando qué hizo
RLHFReinforcement Learning from Human Feedback
SandboxingEjecutar agente en entorno aislado
Self-EvalEl agente evalúa su propio trabajo
Self-HealingPatrón: fallo → diagnóstico → fix automático
SessionContexto persistente entre múltiples ejecuciones
SkillsArchivos de conocimiento reutilizables para agentes
SLMSmall Language Model. Modelo pequeño para tareas específicas
Structured OutputForzar al LLM a generar JSON/XML con schema específico
Sub-AgentAgente secundario delegado por el principal con scope limitado
SupervisorAgente que coordina a otros agentes especializados
SwarmPatrón de group chat entre múltiples agentes
TemperatureParámetro de aleatoriedad del LLM (0=determinista)
TokenUnidad mínima de procesamiento de un LLM
Tool SchemaDefinición formal de una herramienta (nombre, params, descripción)
Tool UseCapacidad del LLM de invocar herramientas externas
ToTTree of Thoughts. Explorar múltiples ramas de razonamiento
TraceRegistro jerárquico de todas las acciones del agente
Vector StoreBase de datos para almacenar y buscar embeddings
WorktreeGit worktree: copia aislada del repo para ejecución paralela
Zero-ShotPedir al LLM que responda sin ejemplos previos
END OF DOCUMENT

¿Necesitas más? Volver a la Librería →