Noticias

Reino Unido se alía con Microsoft para crear un sistema de detección de deepfakes y fijar estándares contra el contenido manipulado por IA

Créditos -TecnoAp21

El Gobierno británico impulsará un marco común para evaluar y detectar deepfakes en línea, en colaboración con Microsoft, universidades y expertos independientes. La iniciativa busca frenar el fraude, la suplantación de identidad y el abuso sexual facilitados por inteligencia artificial.

Un marco común frente a la expansión de los deepfakes

El Gobierno del Reino Unido anunció que trabajará junto a Microsoft, la comunidad académica y especialistas en tecnología para desarrollar un sistema avanzado de detección de deepfakes, en un momento de creciente preocupación por el uso de inteligencia artificial generativa para crear contenidos falsos, engañosos o directamente dañinos.

Aunque el material manipulado ha circulado en internet durante décadas, la rápida adopción de modelos de IA generativa ha incrementado de forma significativa el realismo, la escala y la facilidad con la que se producen deepfakes. Este fenómeno ha elevado los riesgos asociados a la desinformación, el fraude digital y la explotación de personas vulnerables.

Como parte de esta iniciativa, el Ejecutivo británico está desarrollando un marco de evaluación de detección de deepfakes que permitirá establecer estándares coherentes para medir la eficacia de las herramientas existentes y futuras, independientemente de su origen o tecnología subyacente.

Del fraude a la explotación sexual: los riesgos que preocupan al Gobierno

La ministra de Tecnología, Liz Kendall, advirtió de que los delincuentes están utilizando los deepfakes como un arma para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que las personas ven y escuchan en el entorno digital.

El marco servirá para probar las tecnologías de detección frente a amenazas reales como el abuso sexual, la suplantación de identidad y el fraude, ayudando tanto a las fuerzas del orden como a los reguladores a identificar lagunas en los sistemas actuales. Además, permitirá fijar expectativas claras para la industria tecnológica sobre los niveles mínimos de protección que deberían ofrecer sus soluciones.

Según cifras del propio Gobierno, en 2025 se compartieron alrededor de 8 millones de deepfakes, frente a los 500.000 detectados en 2023, lo que ilustra la velocidad a la que se está expandiendo este tipo de contenido.

Presión regulatoria tras los últimos casos con IA generativa

La iniciativa se enmarca en una reacción más amplia de gobiernos y reguladores, que este año se han visto forzados a actuar tras descubrirse casos de generación de imágenes íntimas no consensuadas mediante herramientas de inteligencia artificial.

Reino Unido ya ha criminalizado la creación de imágenes íntimas no consentidas y, en paralelo, el regulador de las comunicaciones y la autoridad de protección de datos están llevando a cabo investigaciones sobre el uso de sistemas de IA generativa como Grok, el chatbot impulsado por Elon Musk, tras detectarse la creación de contenido sexualizado sin consentimiento, incluidos casos que afectaban a menores.

Con esta colaboración público-privada, Londres busca posicionarse como uno de los países que lideran la definición de estándares técnicos y regulatorios frente a los riesgos sociales de la inteligencia artificial, reforzando la seguridad digital y la protección de los usuarios.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario