Después de meses de presión por parte de los gigantes tecnológicos estadounidenses y la administración Trump, los funcionarios de Bruselas están ahora discutiendo posibles retrasos en partes de la Ley de IA, marcando un cambio dramático respecto a su postura anterior.
El 19 de noviembre de 2025, la Comisión Europea decidirá sobre un "paquete de simplificación" que podría remodelar cómo se implementa la Ley de IA. Según el portavoz de la Comisión Thomas Regnier, los funcionarios están explorando "retrasos de implementación específicos", aunque aún no se ha tomado ninguna decisión final.
La propuesta preliminar incluye cambios significativos. Las empresas que utilizan sistemas de IA de alto riesgo podrían obtener un periodo de gracia de un año antes de que comience la aplicación. La UE también está considerando retrasar las multas por violaciones de transparencia hasta agosto de 2027. Esto daría a las empresas más tiempo para ajustar sus operaciones sin enfrentar sanciones inmediatas.
La Ley de IA entró originalmente en vigor en agosto de 2024, pero sus reglas se aplican gradualmente. Algunas restricciones sobre sistemas de IA peligrosos ya entraron en vigor en febrero de 2025. La próxima fecha límite importante es el 2 de agosto de 2025, cuando los modelos de IA de propósito general deben cumplir con nuevos requisitos. Las reglas más estrictas para sistemas de alto riesgo estaban programadas para agosto de 2026.
Las empresas tecnológicas estadounidenses han estado luchando contra la Ley de IA durante meses. En junio de 2025, la Asociación de la Industria Informática y de Comunicaciones, que representa a Apple, Google y Meta, pidió a la UE retrasar la ley por al menos dos años. Argumentaron que las reglas son demasiado complejas e inciertas.
La campaña de lobby ha sido masiva. Investigaciones recientes muestran que las empresas tecnológicas ahora gastan alrededor de €151 millones por año en lobby en Bruselas—un aumento del 50% desde hace cuatro años. Meta gasta por sí sola €10 millones anualmente, mientras que Microsoft y Apple gastan €7 millones cada una.
Meta ha adoptado la línea más dura contra las regulaciones. El jefe de asuntos globales de la compañía anunció públicamente que Meta no firmaría el Código de Prácticas voluntario de IA de la UE, alegando que crea demasiada incertidumbre legal. En contraste, Google decidió respaldar el código, mostrando divisiones dentro de la industria tecnológica.
El gobierno de EE.UU. también ha ejercido presión. El Vicepresidente JD Vance advirtió en una cumbre en París que la "regulación excesiva" podría dañar la industria de IA de Europa. A puerta cerrada, Bruselas ha estado negociando con la administración Trump sobre el ajuste de la Ley de IA y otras normas digitales.
Lo que hace notable esta situación es la rapidez con que la Comisión Europea cambió su posición. En julio de 2025, el portavoz de la Comisión Thomas Regnier afirmó firmemente: "Permítanme ser lo más claro posible, no hay detención del reloj. No hay periodo de gracia. No hay pausa."
Eso fue hace solo cuatro meses. Ahora, los mismos funcionarios están discutiendo abiertamente los retrasos. Este cambio se produjo después de que más de 45 empresas europeas, incluidas Airbus y Mistral AI, también pidieran posponer la ley.
El cambio refleja problemas reales de implementación. Los documentos de orientación clave llegaron tarde o no llegaron en absoluto. Se suponía que el Código de Prácticas para IA de propósito general saldría en mayo de 2025, pero se retrasó debido a quejas de la industria. Algunas orientaciones sobre sistemas de IA prohibidos se publicaron apenas dos días después de que esas reglas entraran en vigor, dando a las empresas casi ningún tiempo para prepararse.
El ex primer ministro italiano Mario Draghi añadió peso a los argumentos de retraso en septiembre de 2025. Hablando en una conferencia en Bruselas, Draghi calificó la Ley de IA como "una fuente de incertidumbre" e instó a pausar la siguiente fase de implementación.
"Las primeras reglas—que incluían la prohibición de sistemas de 'riesgo inaceptable'—se implementaron sin complicaciones importantes", explicó Draghi. "Pero la siguiente etapa—que cubre sistemas de IA de alto riesgo en áreas como infraestructura crítica y salud—debe ser proporcionada y apoyar la innovación y el desarrollo. En mi opinión, la implementación de esta etapa debería pausarse hasta que entendamos mejor las desventajas."
El informe de competitividad de Draghi de 2024 ya había empujado a la UE a repensar algunas regulaciones. Su recomendación de retrasar las reglas de sostenibilidad corporativa fue aceptada, y ahora sus preocupaciones sobre la Ley de IA están recibiendo seria atención.
Polonia también ha estado presionando por retrasos. El gobierno polaco propuso un mecanismo de "detener el reloj" para partes de la Ley de IA donde los estándares técnicos aún no están listos. En septiembre, Polonia sugirió retrasar las sanciones para sistemas de IA de alto riesgo de seis meses a un año.
No todos apoyan retrasar la ley. Más de 50 organizaciones, incluidos grupos de derechos digitales y defensores de los consumidores, firmaron una carta oponiéndose a cualquier aplazamiento. Les preocupa que los retrasos debiliten las protecciones para los ciudadanos y den demasiado poder a las empresas tecnológicas.
Los expertos legales tienen opiniones mixtas. Algunos argumentan que simplemente retrasar una ley defectuosa no solucionará sus problemas. Thibault Schrepel, profesor asociado en la Universidad Libre de Ámsterdam, escribió que el marco rígido de la Ley de IA no puede mantenerse al día con la tecnología que cambia rápidamente. En lugar de retrasos, sugiere construir una "regulación adaptativa" que pueda evolucionar junto con el desarrollo de la IA.
El sector de blockchain y criptomonedas está observando estos desarrollos de cerca, ya que las regulaciones de IA podrían afectar a proyectos que combinan inteligencia artificial con tecnología blockchain.
La decisión del 19 de noviembre pondrá a prueba si Europa puede equilibrar la innovación con la regulación. Incluso si la Comisión propone retrasos, los cambios aún necesitarían la aprobación de los países miembros de la UE y del Parlamento Europeo.
Lo que está en juego va más allá de la política tecnológica. Se suponía que la Ley de IA establecería a Europa como líder mundial en gobernanza responsable de IA. Ceder bajo la presión estadounidense podría socavar esa posición y plantear preguntas sobre la soberanía de la UE en la era digital.
Las empresas que operan en Europa enfrentan sus propios desafíos. Necesitan reglas claras para hacer planes de negocio, pero también quieren que esas reglas sean viables. Los líderes tecnológicos se han quejado de que los productos se retrasan o se diluyen debido a la incertidumbre regulatoria.
La pregunta más importante es si alguna ley puede regular efectivamente una tecnología que cambia tan rápidamente. Los modelos de IA de propósito general han evolucionado más rápido de lo que los reguladores esperaban. Lo que parecían reglas integrales en 2021 puede que ya esté obsoleto en 2025.
Europa ahora enfrenta una difícil elección sobre la regulación de IA. El paquete del 19 de noviembre podría proporcionar un respiro para una mejor implementación o señalar una retirada bajo presión corporativa. Pase lo que pase, la decisión mostrará si los gobiernos democráticos pueden establecer reglas tecnológicas o si los gigantes tecnológicos tienen demasiado poder. El mundo está observando para ver si la ambiciosa ley de IA de Europa sobrevive al contacto con la realidad.


