El Reglamento Europeo de Inteligencia Artificial (EU AI Act) alcanza su momento más crítico para las empresas: el 2 de agosto de 2026, las obligaciones plenas para los proveedores y desplegadores de sistemas de IA de alto riesgo entran en vigor. Faltan menos de tres meses y muchos equipos de datos aún no han evaluado si sus sistemas caen bajo el ámbito de aplicación de la normativa.

El AI Act clasifica como de alto riesgo los sistemas de IA utilizados en ocho áreas sensibles: empleo y gestión de recursos humanos, acceso a servicios financieros y seguros, educación, servicios esenciales, seguridad pública, administración de justicia y democracia. Para todos ellos, el Capítulo III del reglamento impone cuatro obligaciones fundamentales: un sistema de gestión de riesgos continuo durante todo el ciclo de vida del modelo; documentación técnica detallada que demuestre la conformidad del sistema; gobernanza de datos rigurosa sobre los conjuntos de entrenamiento, validación y prueba; y transparencia hacia los usuarios finales sobre la naturaleza automatizada de las decisiones que les afectan.

Las sanciones son significativas: hasta 35 millones de euros o el 7 % de la facturación global anual por el uso de prácticas prohibidas; hasta 15 millones o el 3 % por infracciones en sistemas de alto riesgo. Existe un matiz relevante: la Comisión Europea propuso a finales de 2025 el paquete «Digital Omnibus» que podría posponer las obligaciones del Anexo III hasta diciembre de 2027. Sin embargo, ese texto aún no ha completado su tramitación legislativa, y las organizaciones no deberían confiar en una prórroga que no está confirmada.

Para los equipos de datos e IA, la prioridad inmediata es el inventario: identificar qué modelos en producción o en desarrollo caen bajo la definición de alto riesgo, auditar la documentación técnica existente y evaluar la calidad y representatividad de los datos de entrenamiento. Las organizaciones que ya trabajan con frameworks de MLOps y catálogos de datos tienen una ventaja real: la infraestructura de gobernanza que el AI Act exige coincide en gran parte con las mejores prácticas que el sector lleva años promoviendo. El riesgo mayor no es técnico, es organizativo: la falta de un responsable claro de cumplimiento en el cruce entre equipos jurídicos y equipos de IA.

Más en Dataprix: Gobernanza de datos: calidad, linaje y cumplimiento normativo

Fuente: Legal Nodes