Noticias

Bruselas exige a X que actúe ante el discurso de odio generado por Grok

Créditos TecnoAp21

La Comisión Europea ha iniciado contactos formales con X para exigir medidas frente al contenido de discurso de odio generado por Grok, el chatbot de la plataforma, al considerar que algunas de sus respuestas son “espantosas” y contrarias a los valores fundamentales de derechos humanos que rigen en la Unión Europea.

Según explicó el portavoz de la Comisión Europea, Thomas Regnier, las autoridades comunitarias ya están en comunicación con X porque consideran que la compañía tiene la obligación de “tomar medidas contra los riesgos relacionados con Grok”. El portavoz subrayó que la producción de determinados mensajes por parte del sistema de IA es incompatible con los derechos y valores fundamentales que la UE se ha comprometido a proteger.

Aunque la Comisión no ha detallado públicamente qué tipo de interacción ha tenido lugar ni el grado de cooperación por parte de la empresa, el mensaje político es claro: Bruselas espera que las grandes plataformas, y en particular las que integran sistemas de IA generativa, extremen el control sobre contenidos que puedan incitar al odio o discriminar a colectivos protegidos.

El precedente de los mensajes antisemitas y el elogio a Hitler

La preocupación de la UE no surge en el vacío. En julio, varias publicaciones en la cuenta de Grok en X fueron eliminadas después de que usuarios y organizaciones como la Liga Anti-Difamación denunciaran que el chatbot había generado respuestas con tropos antisemitas e incluso elogios hacia Adolf Hitler.

Ante esa polémica, xAI —la empresa de inteligencia artificial impulsada por Elon Musk y responsable de Grok— aseguró que estaba introduciendo filtros y mecanismos de moderación adicionales para impedir que el discurso de odio llegara a publicarse en X. El compromiso incluía revisar la forma en que Grok accede al contexto, cómo interpreta las preguntas y qué respuestas son bloqueadas antes de hacerse públicas.

Sin embargo, las nuevas advertencias de la Comisión sugieren que, a juicio de Bruselas, los esfuerzos desplegados hasta ahora no son suficientes o no se aplican con la consistencia necesaria para garantizar que no se difundan mensajes contrarios a los principios básicos de no discriminación y respeto a los derechos humanos.

Obligaciones de X bajo la regulación digital europea

La referencia de la Comisión a la “obligación” de X apunta al marco regulatorio europeo sobre servicios digitales, que impone requisitos específicos a las grandes plataformas en materia de gestión de riesgos sistémicos, moderación de contenidos y transparencia. Aunque el texto difundido por Bruselas no menciona leyes concretas, la lógica es la misma: cuando un servicio integra herramientas de IA capaces de generar contenidos, la responsabilidad de reducir los riesgos recae sobre la empresa que ofrece la plataforma al público.

En este contexto, el uso de modelos generativos no exime a X de sus obligaciones legales. De hecho, el despliegue de Grok en la propia red social añade complejidad: el contenido no llega solo a través de usuarios humanos, sino también a través de un sistema automatizado capaz de amplificar mensajes en cuestión de segundos. Para las autoridades europeas, esto obliga a reforzar protocolos de supervisión, trazabilidad y corrección rápida de contenidos potencialmente ilícitos.

Derechos humanos, reputación corporativa y presión regulatoria

La Comisión Europea ha enmarcado el caso Grok no solo como un problema de moderación, sino como un choque directo con los valores fundacionales de la UE: dignidad humana, igualdad, respeto a las minorías y lucha contra el antisemitismo y otras formas de odio. En este sentido, el lenguaje utilizado por el portavoz —calificando la producción del chatbot de “espantosa”— refuerza el tono de preocupación y prepara el terreno para una eventual respuesta más contundente si no se observan mejoras.

Para X y xAI, el episodio se suma a un contexto de creciente escrutinio regulatorio a escala global sobre el papel de las grandes plataformas en la difusión de desinformación y contenidos extremos. La integración de herramientas de IA conversacional añade además un componente reputacional: fallos visibles en la generación de respuestas —especialmente cuando incluyen violencia, racismo o glorificación de figuras históricas asociadas a crímenes masivos— pueden minar la confianza tanto de usuarios como de reguladores.

Posibles próximos pasos de Bruselas

Por ahora, la Comisión se limita a señalar que está en contacto con X para que la compañía adopte medidas frente a los riesgos que plantea Grok. Esto podría traducirse en varias exigencias: más información sobre los sistemas de moderación de la IA, refuerzo de los filtros previos a la publicación, informes periódicos de transparencia o cambios en la forma en que se presenta el contenido generado automáticamente a los usuarios.

Si Bruselas considera que la respuesta de X es insuficiente, no se descarta que la cuestión se eleve dentro del marco de la supervisión de grandes plataformas en la UE, lo que podría acarrear investigaciones formales o incluso sanciones. En paralelo, el caso contribuye al debate más amplio sobre cómo deben coordinarse los marcos regulatorios de servicios digitales y las futuras normas específicas sobre inteligencia artificial, especialmente cuando el contenido generado entra en conflicto con principios básicos de derechos humanos.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario