Planifica y ejecuta tareas con
Precisión Agéntica

La documentación oficial de Architect. Herramienta CLI open source que orquesta agentes de IA para escribir, revisar, y corregir código automáticamente. Headless-first: diseñada para CI/CD, pipelines, y automatización. Multi-modelo y con guardrails de seguridad integrados.

TERMINAL — HUMAN LOG OUTPUT
$ architect run "Refactoriza el módulo auth del proyecto"
🔄 Paso 1 → Llamada al LLM (5 mensajes)
LLM respondió con 2 tool calls
🔧 read_file → src/main.py
OK
🔧 edit_file → src/main.py (3→5 líneas)
OK
🔍 Hook python-lint:
🔄 Paso 2 → Llamada al LLM (9 mensajes)
LLM respondió con texto final
Agente completado (2 pasos)
Razón: LLM decidió que terminó
Coste: $0.0042

Qué es Architect

Una herramienta de línea de comandos que convierte cualquier LLM en un agente de código autónomo. Dale una tarea, y architect lee tu código, planifica los cambios, los implementa, ejecuta tests, y verifica el resultado — todo sin intervención humana.

A diferencia de los asistentes de código que viven dentro de un IDE, architect está diseñada para ejecutarse donde el código realmente se construye: en terminales, scripts, Makefiles, y pipelines de CI/CD. Es la pieza que falta entre "tengo una IA que genera código" y "tengo una IA que entrega código verificado".

Funciona con cualquier LLM: OpenAI, Anthropic, Google, DeepSeek, Mistral, modelos locales con Ollama — más de 100 proveedores soportados. Tú eliges el modelo, architect hace el trabajo.

Headless-first

No es un chat con superpoderes. Es una herramienta de automatización que habla con LLMs.

Determinismo sobre probabilismo

Los hooks y guardrails son reglas, no sugerencias. El LLM decide qué hacer, los quality gates verifican que el resultado es correcto.

Transparencia total

Cada acción del agente se registra con human logs legibles y JSON estructurado. Sin cajas negras.

Open source, sin sorpresas

Sin suscripciones ni features bloqueadas. Pagas solo los costes de API del LLM que elijas.

Multi-modeloRalph LoopParallel runsGuardrailsPipelines YAMLHooksCI/CD-firstMemoria autoOpenTelemetryReportsDry runSkills Vercel

Características Principales

Multi-Modelo, Cero Lock-in

Usa cualquier LLM: OpenAI, Anthropic, Google, DeepSeek, Mistral, Ollama — o cualquier API compatible. Más de 100 proveedores vía LiteLLM. Cambia de modelo con un flag.

Ralph Loop — Iteración Autónoma

Ejecuta, verifica con tus tests, si fallan reintenta con contexto limpio. Itera hasta que tus checks pasen de verdad — no hasta que el LLM crea que ha terminado.

Parallel Runs con Worktrees

Múltiples agentes en paralelo, cada uno en su git worktree aislado. Misma tarea con N modelos para comparar, o tareas diferentes para multiplicar velocidad.

Guardrails & Quality Gates

Archivos protegidos, comandos bloqueados, límites de cambios, reglas de código. Quality gates obligatorios antes de completar. Declarativo en YAML, determinista.

Pipelines Declarativos

Workflows multi-paso en YAML. Plan, Build, Test, Review, Fix. Variables entre pasos, condiciones, checkpoints. Composable y reutilizable.

Extensible con Hooks

10 eventos del lifecycle del agente. Formatea código automáticamente, bloquea comandos peligrosos, notifica a Slack cuando termina. Pre y post en cada acción.

Hecho para CI/CD

Exit codes semánticos, output JSON parseable, reports en Markdown para PR comments. Budget y timeout como hard limits. Sin confirmaciones, sin prompts interactivos.

Aprende Con El Uso

Memoria procedural auto-generada. Detecta correcciones y las persiste. Combinada con .architect.md y skills Vercel-compatible: tres capas de conocimiento acumulado.

Ralph Loop — La Feature Estrella

El patrón más productivo en agentic coding, integrado como feature nativa. En vez de confiar en que la IA decida cuándo ha terminado, architect ejecuta tus tests y linters después de cada iteración. Si fallan, el agente vuelve a intentarlo con contexto limpio.

Cada iteración arranca fresca — sin acumular basura de intentos anteriores. Solo recibe: la spec original, el diff acumulado, y los errores de la última iteración. El resultado: código que compila, pasa tests, y está limpio.

$ architect loop "Implementa el módulo de pagos" \
--check "pytest tests/ -q" \
--check "ruff check src/" \
--max-iterations 25
Ralph Loop — Iteración 3/25
🔄 Agente trabajando (contexto limpio + errores de iter. 2)...
🔧 edit_file → src/payments/stripe.py
🔧 edit_file → tests/test_payments.py
Agente completó
🧪 Verificación externa:
pytest tests/ -q → 18/18 passed
ruff check src/ → sin errores
Loop completado en 3 iteraciones ($0.089)

Guardrails & Quality Gates

Los guardrails de architect no dependen del LLM. Son reglas deterministas que se evalúan antes y después de cada acción. El agente no puede saltárselas porque no las controla — están fuera de su contexto.

Si el agente intenta escribir en .env → bloqueado. Si el código contiene eval() → bloqueado. Si dice "he terminado" pero pytest falla → sigue trabajando. Los quality gates pasan o no pasan. Sin negociación.

guardrails.yaml
guardrails:
protected_files: [".env", "*.pem", "migrations/*"]
blocked_commands: ['rm -rf /', 'git push --force']
max_files_modified: 30
quality_gates:
- name: lint
command: "ruff check src/"
required: true
- name: tests
command: "pytest tests/ -q"
required: true
code_rules:
- pattern: 'eval\('
severity: block

Parallel Runs con Git Worktrees

Lanza múltiples agentes en paralelo, cada uno en su propio git worktree aislado. Misma tarea con diferentes modelos para comparar resultados reales en tu codebase. O diferentes tareas en paralelo para multiplicar velocidad.

Worktrees nativos de git: sin copias, sin conflictos, sin Docker. Cada worker opera en un snapshot aislado del repo. Al final, datos objetivos — no opiniones.

$ architect parallel "Refactoriza el módulo auth" \
--models gpt-4.1,claude-sonnet-4,deepseek-chat
Resultados — Competitive Eval
Worker 1 (gpt-4.1)
→ architect/parallel-1 8 pasos $0.034
Worker 2 (claude-sonnet-4)
→ architect/parallel-2 5 pasos $0.028
Worker 3 (deepseek-chat)
→ architect/parallel-3 20 pasos $0.006
$ architect diff parallel-1 parallel-2
$ architect merge parallel-2

Por qué Architect

architect no compite con Claude Code ni con Cursor en su terreno. Compite donde ellos no llegan: ejecución sin supervisión, CI/CD, automatización, scripts.

Claude Code Cursor Aider architect
Modo principal Terminal interactiva IDE (VS Code) Terminal interactiva Headless / CI
Multi-modelo Solo Claude Multi (con config) Multi Multi (LiteLLM, 100+)
Sin supervisión Parcial No Parcial Nativo
Parallel runs Manual (worktrees) No No Nativo
Ralph Loop Plugin externo No No Nativo
Pipelines YAML No No No
Guardrails Hooks (manual) Limitado No Declarativo (YAML)
Quality Gates No No No
CI/CD-first Adaptable No Parcial Diseñado para ello
Exit codes CI No No No Semánticos
Reports No No No JSON / MD / GitHub
MCP nativo No No
Post-edit hooks Manuales Parcial No Auto y configurables
Self-eval No No No Basic + Full
Skills ecosystem No Sí (Vercel-compatible)
Memoria procedural No No No Auto-generada
Session resume Parcial No No Completo
Checkpoints Interactivo No Git auto-commits Programático
OpenTelemetry No No No Nativo
Cost tracking Limitado No Parcial Completo + budget
Custom agents No No No Sí (YAML)
Open source No No
Coste $20/mes (Pro) $20/mes API costs API costs (gratis)

vs Claude Code: Claude Code es el mejor agente interactivo en terminal. architect es el mejor agente para automatización. Claude Code es tu copiloto; architect es tu equipo de CI y tu piloto automático.

vs Cursor: Cursor vive dentro del IDE. architect vive donde el código se construye y se despliega: en terminales, pipelines, en CI, en scripts y cron jobs.

vs Aider: Aider fue pionero en agentes CLI. architect lleva la idea más lejos: parallel runs, pipelines declarativos, guardrails, quality gates, self-evaluation, MCP, y una arquitectura pensada para ejecutarse sin supervisión durante horas.

Casos de Uso

Para Developers

Configura un Ralph Loop con tu spec y tus tests. Cierra el portátil. A la mañana siguiente tienes un PR con código que compila y pasa todos los tests.

Coding overnight $ architect loop --spec tasks/payment-module.md \ --check "pytest tests/ -q" \ --check "mypy src/" \ --max-iterations 30
Competitive coding $ architect parallel "Optimiza las queries SQL" \ --models gpt-4.1,claude-sonnet-4,deepseek-chat
Refactoring seguro $ architect run "Migra de SQLAlchemy sync a async" \ --dry-run # Preview primero, ejecuta después con checkpoints: architect run "Migra de SQLAlchemy sync a async" \ --checkpoint-every 5

Para Equipos

Review automático en cada PR, estándares compartidos codificados en YAML, y evaluación objetiva cuando cambiáis de modelo.

Review automático en PRs $ architect run "Revisa este PR" \ --agent review \ --context-git-diff origin/main \ --report github > review.md
Estándares compartidos $ # .architect.md + guardrails + skills # Convenciones del equipo codificadas, # versionadas en git, verificadas en cada ejecución
Eval de modelos $ architect eval \ --models claude-sonnet-4,gpt-4.1 \ --tasks eval/tasks.yaml
GitHub Actions — Review
- name: AI Code Review
run: |
architect run "Revisa los cambios de este PR" \
--agent review \
--context-git-diff origin/main \
--report github \
--budget 0.10

Para CI/CD & DevOps

Integra architect en tus pipelines. Fix automático de lint, generación de changelogs, documentación actualizada — todo headless, todo auditable.

Fix automático de lint $ architect loop "Corrige errores de lint" \ --check "eslint src/ --max-warnings 0" \ --max-iterations 5 --budget 0.50
Changelog automático $ architect run "Genera changelog desde v1.2.0" \ --report markdown > CHANGELOG.md
Docs automáticas $ architect pipeline pipelines/update-docs.yaml

Empieza en 30 Segundos

1

Instalar

Requiere Python 3.12+ pip install architect-ai-cli
2

Configurar

architect init --preset python O --preset node-react, --preset ci, o manual con export OPENAI_API_KEY=sk-...
3

Tu primera tarea

architect run "Añade un endpoint GET /health que devuelva {status: ok}"
Más ejemplos
# Preview sin ejecutar (como terraform plan)
$ architect run "Refactoriza el módulo auth" --dry-run
# Ralph Loop: itera hasta que los tests pasen
$ architect loop "Corrige todos los errores de lint" \
--check "ruff check src/" --max-iterations 10
# Parallel: 3 modelos, misma tarea, compara
$ architect parallel "Optimiza las queries SQL" \
--models gpt-4.1,claude-sonnet-4,deepseek-chat
# En CI/CD con budget y report
$ architect run "Revisa este PR" --agent review \
--budget 0.15 --report github
# Exit codes semánticos
# 0 = success, 1 = failed, 2 = partial

Open source. Sin suscripciones. Pagas solo los costes de API del LLM que elijas.