EU AI Act: qué deben hacer las empresas antes de agosto de 2026
El 2 de agosto de 2026 entran en vigor las obligaciones más extensas del Reglamento Europeo de IA (EU AI Act) para sistemas de alto riesgo. Aunque el Parlamento Europeo ha discutido posibles retrasos, lo prudente es asumir esa fecha y prepararse. La regulación afecta a muchas más empresas de las que asumen: cualquier organización que use IA para selección de personal, evaluación del rendimiento laboral, scoring crediticio o atención al cliente con determinadas funcionalidades cae dentro del ámbito.
Esta guía explica qué obligaciones entran en vigor, qué empresas se ven afectadas, qué sanciones hay, y cómo construir un plan de cumplimiento sin paralizar la operación.
Qué es exactamente el EU AI Act
Es el primer marco regulatorio integral del mundo sobre inteligencia artificial. Categoriza los sistemas de IA en cuatro niveles de riesgo:
- Riesgo inaceptable: prohibidos (puntuación social, manipulación cognitiva, identificación biométrica masiva).
- Alto riesgo: permitidos con obligaciones estrictas (selección de personal, evaluación laboral, scoring crediticio, sanidad, educación reglada, infraestructura crítica).
- Riesgo limitado: con obligaciones de transparencia (chatbots, deepfakes).
- Riesgo mínimo: sin obligaciones específicas (filtros de spam, recomendadores básicos).
Las obligaciones que entran en vigor el 2 de agosto de 2026
Para sistemas de alto riesgo
- Sistema de gestión de riesgos: identificar, analizar y mitigar.
- Gobernanza de datos: asegurar que los datos de entrenamiento son representativos y libres de sesgo.
- Documentación técnica exhaustiva.
- Registro automático de eventos.
- Transparencia hacia los usuarios.
- Supervisión humana efectiva sobre las decisiones del sistema.
- Robustez, seguridad y precisión documentadas.
Para sistemas de riesgo limitado
- El usuario debe saber que está interactuando con una IA (chatbots).
- El contenido sintético debe etiquetarse (imágenes generadas, voces clonadas).
- Los deepfakes requieren divulgación.
Qué empresas se ven afectadas
Más de las que la mayoría asume. Casos típicos en pymes y empresas medianas:
- Uso de ATS con scoring automático (selección de personal): es alto riesgo.
- Sistemas de evaluación del rendimiento con decisiones automáticas: alto riesgo.
- Chatbots conversacionales: riesgo limitado, con obligación de transparencia.
- Generadores de contenido sintético: obligación de etiquetado.
- Sistemas de scoring de crédito o solvencia: alto riesgo.
Sanciones
El régimen sancionador es disuasorio:
- 35 millones de euros o 7% del volumen de negocios mundial por violaciones de prácticas prohibidas.
- 15 millones o 3% del volumen mundial por incumplimientos relacionados con sistemas de alto riesgo.
- 7,5 millones o 1% del volumen mundial por infracciones de transparencia.
El «el menor de los dos» se aplica para pymes según el reglamento, pero las cifras siguen siendo importantes.
Plan de cumplimiento en 6 pasos
- Inventario de sistemas de IA: lista todos los sistemas de IA usados en la empresa, propios o de terceros.
- Clasificación por riesgo: alto, limitado, mínimo. Esto define las obligaciones aplicables.
- Análisis de gaps: qué falta para cumplir (gobernanza de datos, documentación, supervisión humana).
- Plan de remediación: priorizado por riesgo y fecha de cumplimiento.
- Procesos internos: nombrar responsable de IA, formar al equipo, integrar revisiones.
- Auditoría continua: revisar al menos una vez al año, especialmente cuando se introduce un nuevo sistema.
Cómo lo afronta REPLAI como proveedor
REPLAI ha invertido en preparar todos sus módulos para el AI Act. Esto significa:
- Chatbot: cumple obligación de transparencia (el usuario sabe que habla con IA).
- Recruit: scoring opcional, supervisión humana obligatoria, audit trail completo.
- Sales: lead scoring con explicabilidad.
- Documentación técnica disponible para clientes que la requieran en sus auditorías.
El cliente final no tiene que ser experto en regulación: la suite ya viene preparada para los casos de uso típicos.
Errores comunes al planificar el cumplimiento
- Asumir que «no hago IA» cuando se usa un ATS o un chatbot.
- Confiar en que el proveedor cumple sin verificarlo: la responsabilidad es compartida.
- Dejarlo para el último mes: el inventario y la documentación toman tiempo.
- No formar al equipo: una decisión equivocada en el área de RRHH o atención al cliente puede costar caro.
Conclusión: cumplir antes de agosto es operativamente viable
El AI Act no es un freno al uso de IA: es un marco de buenas prácticas. Las empresas que lo asuman antes de agosto entran en 2026/2027 con ventaja competitiva. Las que lo dejen para octubre se exponen a auditorías y a una factura cara.
Si quieres revisar cómo encajan tus procesos actuales con el AI Act usando módulos como Chatbot, Recruit y Sales de REPLAI, solicita una demo y te ayudamos a mapear el cumplimiento.
