Inteligencia artificial

La UE retrasará hasta 2027 la aplicación de las reglas de IA de “alto riesgo” tras el rechazo de las Big Tech

La Comisión Europea ha propuesto un paquete de simplificación regulatoria que incluye retrasar un año la entrada en vigor de las normas más estrictas de la Ley de IA, pasando de agosto de 2026 a diciembre de 2027.

El objetivo es reducir la carga administrativa, responder a las críticas de grandes tecnológicas y reforzar la competitividad europea sin renunciar al marco regulatorio establecido.

Un paquete de simplificación con amplio alcance

La propuesta, presentada como un “ómnibus digital”, deberá debatirse y votarse por los Estados miembros. Incluye ajustes en varias normativas clave: la Ley de IA, el Reglamento General de Protección de Datos (RGPD), la Directiva de Privacidad Electrónica y la Ley de Datos.
La Comisión sostiene que el propósito es racionalizar procesos, no desregular. Según un funcionario comunitario, la intención es revisar críticamente el paisaje normativo para mantenerlo efectivo y operativo, evitando cargas injustificadas.


Áreas de alto riesgo que verán retrasada la regulación

La prórroga afectará a los requisitos específicos para sistemas de IA considerados de mayor riesgo, como:

• Identificación biométrica
• Aplicaciones de tráfico y transporte por carretera
• Prestación de servicios públicos
• Procesos de selección de empleo y evaluación académica
• Servicios de salud
• Evaluación de solvencia
• Actividades vinculadas a la aplicación de la ley

Estas áreas requieren controles adicionales, documentación reforzada y garantías técnicas que, según la Comisión, necesitan más tiempo para implementarse adecuadamente.

La propuesta también incluye simplificaciones relacionadas con el consentimiento de cookies emergentes, uno de los elementos más criticados por usuarios y empresas.


Un cambio relevante en el RGPD para el entrenamiento de IA

Dentro del paquete, uno de los ajustes de mayor impacto afecta al RGPD. La Comisión plantea permitir que empresas como Google, Meta, OpenAI y otros actores tecnológicos utilicen datos personales de ciudadanos europeos para entrenar modelos de inteligencia artificial bajo condiciones específicas.
Este punto responde a tensiones crecientes entre la normativa de privacidad de la UE y las necesidades de datos masivos para entrenar modelos avanzados de IA.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario