Inteligencia artificial

OpenAI asegura el control de la IA sobrehumana con innovadoras herramientas

Créditos TecnoAp21

En medio de un paisaje tecnológico en constante cambio, OpenAI trabaja en el desarrollo de herramientas para controlar y gobernar inteligencias artificiales superiores a la humana. Estas innovaciones surgen en un contexto de agitación interna y debates sobre la viabilidad y ética de estas tecnologías.

En el mundo de la inteligencia artificial, OpenAI se ha posicionado como un jugador clave, especialmente en la investigación y desarrollo de tecnologías para controlar IA superinteligentes. Recientemente, tras la polémica salida de Sam Altman de la empresa y su posterior retorno, el foco se ha centrado en el equipo de Superalignment de OpenAI y sus esfuerzos por desarrollar métodos para regular estos sistemas avanzados.

El equipo de Superalignment, bajo la dirección del cofundador y científico jefe de OpenAI, Ilya Sutskever, está trabajando en formas de dirigir y gobernar sistemas de IA que teóricamente posean una inteligencia muy superior a la humana. Según Collin Burns, miembro del equipo, el desafío radica en alinear modelos que superen nuestra propia inteligencia, una tarea mucho menos evidente que alinear modelos de nivel humano o inferior.

Esta iniciativa de Superalignment surge en un contexto donde la percepción sobre la IA superinteligente es mixta dentro de la comunidad científica. Mientras algunos ven este subcampo como prematuro o incluso una distracción, otros, como Altman, lo consideran crucial para prevenir riesgos catastróficos, incluidas amenazas químicas y nucleares.

La visión de Sutskever sobre la IA como una posible amenaza existencial ha llevado a OpenAI a dedicar recursos significativos a este campo, incluyendo el 20% de sus chips de computadora para la investigación del equipo de Superalignment. Este enfoque refleja la creencia de que estamos cerca de alcanzar sistemas de IA a nivel humano, y eventualmente, sistemas sobrehumanos.

El trabajo actual del equipo se centra en crear marcos de gobernanza y control aplicables a potentes sistemas de IA futuros. El método adoptado implica el uso de un modelo de IA más débil para guiar a uno más avanzado, actuando como un sustituto de los supervisores humanos en situaciones donde no puedan comprender completamente las complejidades de un sistema superinteligente.

Este enfoque ha mostrado promesa incluso en áreas como la reducción de las alucinaciones en IA, donde el modelo débil puede comunicar los aspectos generales de una tarea al modelo fuerte, permitiéndole generalizar correctamente a pesar de los posibles errores y sesgos.

Para fomentar la investigación en esta área, OpenAI ha lanzado un programa de subvenciones de 10 millones de dólares, con parte del financiamiento proveniente del ex CEO de Google, Eric Schmidt. Este programa busca apoyar la investigación técnica sobre la alineación superinteligente y compartirá públicamente tanto la investigación de OpenAI como el trabajo de otros financiados por estas subvenciones.

La iniciativa de OpenAI destaca la importancia de desarrollar IA de manera responsable y alineada con los valores humanos, un desafío que se perfila como uno de los más importantes en el campo de la inteligencia artificial y la tecnología emergente.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario