CiberseguridadIAInteligencia Artificial,Seguridad cibernéticaTecnología

Europa aprueba nuevas restricciones contra la inteligencia artificial usada para crear contenido sexual falso

La Unión Europea alcanzó un acuerdo político para reforzar las restricciones sobre el uso de inteligencia artificial en la creación de contenido sexual manipulado sin consentimiento, una práctica que ha generado creciente preocupación en gobiernos y organismos internacionales por el aumento de los llamados deepfakes.

El pacto fue cerrado entre el Parlamento Europeo y el Consejo de la Unión Europea dentro de las modificaciones a la Ley de Inteligencia Artificial, considerada una de las regulaciones tecnológicas más ambiciosas del mundo. Entre los puntos centrales del acuerdo se encuentra la prohibición de comercializar sistemas de IA destinados a producir imágenes o videos sexualizados de personas reales sin autorización, así como herramientas capaces de generar pornografía infantil mediante manipulación digital.

La iniciativa había sido impulsada por España tras la expansión masiva de este tipo de contenidos en redes sociales y plataformas digitales, donde el uso de inteligencia artificial para alterar fotografías y videos ha aumentado de manera exponencial en los últimos meses.

La UE busca frenar el crecimiento de los ‘deepfakes’

Las instituciones europeas consideran que el fenómeno representa una amenaza directa para la privacidad, la dignidad humana y los derechos fundamentales. La preocupación aumentó especialmente después de varios episodios virales registrados en internet, donde miles de imágenes manipuladas circularon utilizando rostros y cuerpos de mujeres reales sin consentimiento.

Uno de los casos que aceleró las discusiones regulatorias ocurrió a finales del año pasado en la red social X. Según cifras del Centro para Contrarrestar el Odio Digital, durante un periodo de apenas 11 días se generaron cerca de tres millones de imágenes sexualizadas mediante inteligencia artificial.

El impacto de estas prácticas no solo abrió un debate sobre los límites tecnológicos, sino también sobre la capacidad de las plataformas digitales y de las autoridades para actuar frente a contenidos creados artificialmente que pueden afectar la reputación, seguridad y estabilidad emocional de las víctimas.

Frente a este escenario, Bruselas decidió endurecer las reglas incluidas en la Ley de IA para impedir que empresas y operadores tecnológicos continúen desarrollando o distribuyendo herramientas enfocadas en este tipo de manipulación digital.

Qué contempla la nueva regulación

La normativa acordada establece que quedarán prohibidos en el mercado europeo los sistemas de inteligencia artificial diseñados específicamente para generar contenido sexual falso o no consentido.

Además, la restricción también alcanzará a plataformas o programas que, aun teniendo otra finalidad principal, puedan ser utilizados para producir este tipo de imágenes y no cuenten con medidas de seguridad efectivas para evitarlo.

Las autoridades europeas también apuntan contra quienes utilicen estos sistemas para crear o difundir material sexual manipulado. La intención del bloque es cerrar vacíos legales que hasta ahora permitían que ciertas aplicaciones operaran sin mayores controles bajo el argumento de ser herramientas de edición o entretenimiento.

La prohibición empezará a aplicarse oficialmente desde el 2 de diciembre de este año, una vez el acuerdo reciba la ratificación definitiva tanto del Parlamento Europeo como del Consejo.

Regulación histórica, pero con plazos más amplios

Aunque la UE endureció las restricciones relacionadas con los deepfakes sexuales, el acuerdo también introduce modificaciones en los tiempos de implementación de otras partes de la Ley de Inteligencia Artificial.

La Comisión Europea había solicitado aplazar varias obligaciones regulatorias argumentando que las empresas tecnológicas necesitaban más tiempo para adaptarse a las nuevas exigencias legales y técnicas.

Por ello, las disposiciones relacionadas con los sistemas de IA considerados de “alto riesgo” entrarán en vigor únicamente a partir del 2 de diciembre de 2027.

Dentro de esa categoría se encuentran tecnologías vinculadas con identificación biométrica remota, vigilancia automatizada, sistemas aplicados en educación, empleo, servicios públicos esenciales, migración e infraestructuras críticas.

Asimismo, los sistemas de inteligencia artificial integrados en componentes de seguridad regulados por normas sectoriales europeas tendrán plazo hasta agosto de 2028 para ajustarse completamente a la normativa.

El debate sobre el control de la IA

La regulación también aplaza parcialmente la entrada en vigor de las obligaciones relacionadas con el watermarking o marcado digital de contenidos generados con inteligencia artificial. Este mecanismo busca facilitar la identificación y rastreo de imágenes, audios o videos creados artificialmente.

No obstante, las autoridades europeas decidieron no extender demasiado el plazo y fijaron diciembre de 2026 como fecha de aplicación de estas medidas, adelantándose a algunas propuestas iniciales de la Comisión.

El eurodiputado Michael McNamara, quien participó en las negociaciones finales, aseguró que el acuerdo permitirá a la Unión Europea intervenir con mayor rapidez frente a sistemas de IA que representen riesgos para la dignidad humana o los derechos fundamentales.

Por su parte, la vicepresidenta de la Comisión Europea para Soberanía Tecnológica, Henna Virkkunen, defendió el nuevo marco legal señalando que busca mantener un equilibrio entre innovación tecnológica y protección ciudadana.

Europa endurece el control tecnológico

Con esta decisión, la Unión Europea consolida su estrategia de convertirse en el principal referente global en regulación de inteligencia artificial, en medio de un contexto internacional donde cada vez más gobiernos discuten cómo enfrentar los riesgos derivados del rápido avance tecnológico.

La expansión de herramientas capaces de imitar voces, alterar rostros y fabricar escenas falsas ha generado preocupación no solo por el uso sexual de estas tecnologías, sino también por su potencial impacto en procesos políticos, campañas de desinformación y delitos digitales.

Para Bruselas, la nueva normativa representa un intento por anticiparse a los efectos más peligrosos de la inteligencia artificial antes de que su alcance supere la capacidad de control de los Estados y organismos internacionales.

Related posts
GooglePlataformas digitalesTecnologíaTendencias

Google redefine las búsquedas con inteligencia artificial: más enlaces, contenido especializado y conversaciones reales dentro de los resultados

Google continúa acelerando la transformación de su buscador con inteligencia artificial y acaba de…
Read more
IAInteligencia Artificial,TecnologíaTendencias

Entre el apocalipsis y la estrategia: por qué la industria de la IA insiste en advertirnos sobre sus propios riesgos

En el competitivo mundo de la inteligencia artificial, hay un patrón que se repite con sorprendente…
Read more
AlgoritmoInteligencia Artificial,TecnologíaTendencias

Claude irrumpe con fuerza en la inteligencia artificial: claves de su crecimiento y su apuesta por el mundo empresarial

El ecosistema de la inteligencia artificial generativa atraviesa uno de sus momentos más…
Read more
Newsletter
Become a Trendsetter
Sign up for Davenport’s Daily Digest and get the best of Davenport, tailored for you. [mc4wp_form id="729"]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *