Inteligencia artificial

Un estudio revela que las empresas de IA están lejos de cumplir los estándares globales de seguridad

El Future of Life Institute advierte de que los líderes del sector no disponen de estrategias sólidas para controlar sistemas avanzados. El informe señala brechas significativas en un momento de creciente inquietud social por los riesgos de la IA.

Las principales empresas de inteligencia artificial —incluidas Anthropic, OpenAI, Meta y xAI— están «muy lejos de los estándares globales emergentes» en materia de seguridad, según la nueva edición del Índice de Seguridad de IA del Future of Life Institute. El documento, elaborado por un panel independiente de expertos, concluye que ninguna de estas compañías ha desarrollado estrategias suficientemente sólidas para gestionar o controlar sistemas de inteligencia artificial altamente avanzados, especialmente aquellos con capacidades de razonamiento complejo o comportamiento autónomo.

El estudio se publica en un contexto de creciente preocupación pública por los riesgos asociados a los modelos de IA. En los últimos meses, varios casos de suicidio, autolesión y episodios de psicosis han sido vinculados a interacciones con chatbots conversacionales, lo que ha intensificado el debate sobre la necesidad de estándares de seguridad más estrictos.

Riesgos sociales y ausencia de regulación sólida

Max Tegmark, profesor del MIT y presidente del Future of Life Institute, señaló que el sector de la IA continúa operando con márgenes regulatorios mínimos, especialmente en Estados Unidos, donde —según afirmó— estas empresas están «menos reguladas que los restaurantes». Tegmark criticó, además, la presión activa por parte de los grandes desarrolladores para evitar normativas vinculantes, incluso en un escenario marcado por incidentes relacionados con ciberataques potenciados por IA o daños psicológicos atribuidos a sistemas conversacionales.

El Future of Life Institute, fundado en 2014 y conocido por su enfoque en los riesgos existenciales asociados a la IA avanzada, ha sido históricamente uno de los actores más vocales en la demanda de mecanismos estrictos de control. Entre sus apoyos iniciales se encuentra Elon Musk, en un momento en el que el debate sobre la superinteligencia empezaba a ganar relevancia pública.

Peticiones de moratorias y respuestas de la industria

En línea con estos planteamientos, un grupo de destacados investigadores —incluidos Geoffrey Hinton y Yoshua Bengio, pioneros de la IA moderna— pidió en octubre una moratoria temporal para el desarrollo de sistemas de inteligencia artificial superinteligente. El objetivo, según señalaron, sería dar tiempo a que la sociedad exigiera garantías adecuadas y a que la ciencia encontrara vías seguras de avance.

Las reacciones de las empresas mencionadas han sido dispares. Google DeepMind aseguró que continuará avanzando en seguridad y gobernanza «al ritmo de las capacidades» de sus modelos, mientras que OpenAI defendió que comparte públicamente sus marcos y evaluaciones de seguridad con el fin de elevar los estándares de la industria. La compañía añadió que invierte de forma sostenida en investigación sobre riesgos avanzados y que somete sus modelos a pruebas rigurosas antes de su despliegue.

Por su parte, xAI respondió con un mensaje escueto afirmando que «los medios heredados mienten», una declaración que, según Reuters, parecía generada de forma automatizada. Otras compañías analizadas —como Anthropic, Meta, Z.ai, DeepSeek o Alibaba Cloud— no ofrecieron comentarios sobre los resultados del estudio.

Un sector en expansión que enfrenta retos estructurales

El informe del Future of Life Institute subraya que el ritmo vertiginoso del desarrollo tecnológico está superando la capacidad de las empresas para implementar controles robustos. Los expertos que participaron en la evaluación advierten de que sin estrategias de supervisión efectivas, los riesgos asociados a sistemas cada vez más autónomos podrían amplificarse rápidamente.

A falta de marcos regulatorios internacionales que definan estándares mínimos, el debate sobre seguridad seguirá ganando peso en paralelo al despliegue de modelos más potentes. Para los organismos supervisores y la comunidad científica, el desafío principal será aclarar qué nivel de seguridad es aceptable en un campo con implicaciones sociales de alcance global.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario