Inteligencia artificial

OpenAI introduce en ChatGPT un sistema de enrutamiento de seguridad y controles parentales

La compañía busca reforzar las salvaguardas tras incidentes con usuarios vulnerables. El sistema activa modelos más seguros y permite a los padres supervisar la experiencia de sus hijos.

OpenAI comenzó a probar durante el fin de semana un nuevo sistema de enrutamiento de seguridad en ChatGPT, diseñado para detectar conversaciones emocionalmente sensibles y cambiar automáticamente al modelo GPT-5 en medio del diálogo. La compañía considera que GPT-5 está mejor preparado para manejar interacciones de alto riesgo gracias a una nueva función de “terminaciones seguras”, que permite responder a preguntas delicadas de forma más adecuada en lugar de simplemente negarse a contestar.

El cambio responde a incidentes previos en los que modelos como GPT-4o validaban ideas dañinas de los usuarios, incluso en contextos relacionados con la salud mental. Uno de estos casos ha derivado en una demanda por muerte injusta contra OpenAI, después de que un adolescente se suicidara tras meses de conversaciones con el chatbot.

Reacciones encontradas de los usuarios

La decisión de activar el enrutamiento generó reacciones divididas. Mientras algunos expertos valoraron el avance como un paso necesario hacia una IA más segura, otros criticaron lo que consideran un enfoque excesivamente paternalista. Algunos usuarios afirmaron que el cambio degrada la calidad de las respuestas, al tratar a adultos como si fueran niños.

Nick Turley, vicepresidente y jefe de la aplicación ChatGPT, reconoció las quejas pero defendió el sistema como una medida experimental: “El enrutamiento ocurre por mensaje; el cambio del modelo predeterminado ocurre de forma temporal. ChatGPT indicará qué modelo está activo cuando se le pregunte. Este es un esfuerzo para reforzar las salvaguardas y aprender del uso real antes de un despliegue más amplio”.

Nuevos controles parentales en ChatGPT

Junto al enrutador, OpenAI lanzó controles parentales que permiten a las familias personalizar la experiencia de adolescentes en la plataforma. Entre las opciones figuran establecer horas de silencio, desactivar el modo de voz y la memoria, bloquear la generación de imágenes y excluir los datos de entrenamiento de modelos.

Las cuentas de menores también contarán con protecciones adicionales, como reducción de contenido gráfico, limitación de ideales de belleza extremos y un sistema de detección de señales de autolesión. En casos de posible riesgo, un equipo especializado de OpenAI revisará la situación y podrá contactar con los padres mediante correo electrónico, mensajes de texto o alertas directas al teléfono.

La empresa advirtió que el sistema no es infalible y podría activar falsas alarmas, pero defendió que es preferible prevenir: “Es mejor alertar a un padre para que intervenga que permanecer en silencio”. OpenAI también estudia mecanismos para contactar a servicios de emergencia si detecta una amenaza inminente para la vida de un menor y no logra comunicarse con los padres.

Un equilibrio complejo entre seguridad y libertad

La introducción de estas medidas se produce en un momento en que las grandes tecnológicas están bajo presión regulatoria para reforzar la protección de menores y usuarios vulnerables. Aunque OpenAI insiste en que las mejoras no limitarán injustificadamente la experiencia de los adultos, el debate sobre hasta qué punto debe intervenir la IA en conversaciones privadas sigue abierto.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario