Marco legal y regulatorio

Contexto legal de los marcos regulatorios que evalúa licit, con referencias a los textos oficiales.


EU AI Act — Reglamento (UE) 2024/1689

Contexto

El Reglamento de Inteligencia Artificial de la Unión Europea es la primera regulación integral de IA a nivel mundial. Establece reglas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA en el mercado europeo.

Cronología de aplicación

FechaHito
Agosto 2024Entrada en vigor
Febrero 2025Prohibiciones de prácticas de IA (Título II)
Agosto 2025Obligaciones de modelos de propósito general (GPAI)
Agosto 2026Mayoría de obligaciones, incluyendo sistemas de alto riesgo
Agosto 2027Aplicación completa

Alcance para equipos de desarrollo con IA

licit se enfoca en las obligaciones de deployers (Art. 26-27) y en los requisitos de transparencia y documentación técnica que aplican a equipos que usan agentes IA para generar código.

¿Tu equipo está en alcance? Sí, si:

Artículos evaluados por licit

Art. 9 — Sistema de gestión de riesgos

“Los sistemas de IA de alto riesgo estarán sujetos a un sistema de gestión de riesgos […] que consistirá en un proceso iterativo continuo.”

Qué evalúa licit: Presencia de guardrails, quality gates, budget limits, y herramientas de security scanning.

Art. 10 — Datos y gobernanza de datos

“Los conjuntos de datos de entrenamiento, validación y prueba estarán sujetos a prácticas adecuadas de gobernanza y gestión de datos.”

Qué evalúa licit: Perspectiva deployer — documenta que el proveedor del modelo gestiona los datos de entrenamiento.

Art. 12 — Record keeping

“Los sistemas de IA de alto riesgo se diseñarán y desarrollarán con capacidades que permitan el registro automático de eventos (logs).”

Qué evalúa licit: Git history, audit trail (architect), provenance tracking, OpenTelemetry.

Art. 13 — Transparencia

“Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de tal manera que su funcionamiento sea lo suficientemente transparente.”

Qué evalúa licit: Documentación Annex IV generada, changelog de configs de agentes, trazabilidad de requisitos.

Art. 14 — Supervisión humana

“Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de tal manera que puedan ser supervisados eficazmente por personas físicas.”

Qué evalúa licit: Human review gates, dry-run, quality gates, rollback, budget limits.

Art. 26 — Obligaciones de los deployers

“Los deployers utilizarán los sistemas de IA de alto riesgo de conformidad con las instrucciones de uso.”

Qué evalúa licit: Presencia de configuraciones de agentes, monitoreo de operaciones.

Art. 27 — Evaluación de impacto en derechos fundamentales

“Antes de poner en servicio un sistema de IA de alto riesgo, los deployers llevarán a cabo una evaluación del impacto en los derechos fundamentales.”

Qué genera licit: FRIA completo con cuestionario interactivo de 5 pasos, 16 preguntas, auto-detección de 8 campos.

Annex IV — Documentación técnica

“La documentación técnica contendrá […] una descripción general del sistema de IA, su finalidad prevista, proceso de desarrollo, pruebas y rendimiento.”

Qué genera licit: Documento con 6 secciones auto-pobladas desde metadatos del proyecto.

Texto oficial


OWASP Agentic Top 10 (2025)

Contexto

El OWASP Top 10 for Agentic AI Security identifica los 10 principales riesgos de seguridad específicos para aplicaciones que usan agentes IA. Publicado por OWASP Foundation en 2025.

No es regulación — es un framework de buenas prácticas de seguridad ampliamente adoptado por la industria. Similar a como el OWASP Top 10 (web) es referencia estándar para seguridad web.

Los 10 riesgos

IDRiesgoDescripciónRelevancia para desarrollo
ASI01Excessive AgencyEl agente tiene más permisos de los necesariosAgentes que pueden escribir en cualquier archivo
ASI02Prompt InjectionInputs maliciosos que manipulan el comportamientoCódigo fuente con payloads en comentarios
ASI03Supply ChainDependencias vulnerables o comprometidasAgentes que instalan paquetes sin verificar
ASI04Logging deficienteFalta de registro de acciones del agenteSin audit trail de qué hizo el agente
ASI05Output HandlingOutput no validado usado en downstreamCódigo generado sin review que llega a prod
ASI06Sin Human OversightFalta de supervisión humanaAgentes que pushean directamente a main
ASI07Sandboxing insuficienteAgente sin aislamiento adecuadoAcceso a todo el filesystem y red
ASI08Consumo de recursosSin límites de gasto/tokensAgentes sin budget que gastan sin control
ASI09Error handling pobreErrores que exponen estado o bypass controlesAgente que crashea dejando archivos corruptos
ASI10Exposición de datosFiltración de datos sensiblesAgente que logea credenciales o PII

Texto oficial


Marcos futuros

NIST AI RMF (AI 100-1) — Planificado V1

El AI Risk Management Framework del NIST define 4 funciones core:

  1. Govern: Establecer políticas y procesos de gobernanza
  2. Map: Contextualizar riesgos del sistema de IA
  3. Measure: Evaluar y monitorear riesgos
  4. Manage: Priorizar y tratar riesgos

Referencia: NIST AI RMF (AI 100-1)

ISO/IEC 42001:2023 — Planificado V1

Estándar internacional que especifica requisitos para un sistema de gestión de IA (AIMS). Define:

Referencia: ISO/IEC 42001:2023


Limitaciones legales de licit

  1. licit no es asesoría legal. Los reportes son evidencia técnica de soporte, no dictámenes legales.
  2. licit no clasifica riesgo. La clasificación de un sistema como “alto riesgo” (Annex III) requiere análisis legal.
  3. licit no sustituye al DPO. Si tu sistema procesa datos personales, necesitas un Data Protection Officer independientemente de licit.
  4. Los porcentajes de compliance son orientativos. Un “80% compliant” no significa cumplimiento legal — un solo artículo incumplido puede tener consecuencias regulatorias.
  5. La auto-detección es heurística. Las respuestas auto-detectadas en el FRIA son sugerencias basadas en señales técnicas, no determinaciones legales.