Inteligencia artificial

La Inteligencia Artificial ante un nuevo horizonte regulatorio en Europa

Créditos TecnoAp21

Las principales empresas de inteligencia artificial (IA) han acogido positivamente la nueva legislación europea en materia de IA, pero expresan preocupación sobre su impacto en la innovación. La normativa busca un equilibrio entre el desarrollo tecnológico y la ética.

En un movimiento significativo en el ámbito de la inteligencia artificial, las grandes empresas del sector han aceptado la nueva regulación europea, aunque con reservas sobre su posible efecto restrictivo en el desarrollo tecnológico. Según Pilar Manchón, de Google, la regulación de la IA es crucial, pero debe equilibrarse con la promoción de la innovación. Las empresas, trabajando en paralelo a la negociación de la norma, buscan asegurar un desarrollo ético de la IA que coincida con sus propios principios éticos y expectativas.

La tendencia anterior de autorregulación en el sector está dando paso a una nueva era de supervisión y normativas más estrictas. Las empresas de IA, como IBM, Meta, AMD, Intel y Dell, junto con universidades prestigiosas y entidades como la NASA, han formado la Alianza para la Inteligencia Artificial (AI Alliance), enfocándose en un desarrollo de IA abierto, seguro y responsable. Esta alianza establecerá sus propias normas y trabajará en colaboración con gobiernos y otras organizaciones para mitigar riesgos específicos y avanzar de manera responsable.

Según Arvind Krishna de IBM, este es un momento crucial para definir el futuro de la IA, y la alianza busca garantizar que los beneficios de una IA responsable estén ampliamente disponibles. La alianza, que todavía no incluye a Google ni a OpenAI, enfatiza la importancia de la colaboración entre empresas y gobiernos.

Bob Shorten del Imperial College de Londres subraya la necesidad de que la IA sea confiable, responsable, transparente y auditable, principios defendidos por la normativa europea. Sin embargo, existe preocupación sobre cómo se desarrollará esta tecnología en países con menos escrúpulos sobre la privacidad, como China. Wu Zhaohui, viceministro de Ciencia y Tecnología de China, ha expresado su disposición a colaborar en un marco de gobernanza internacional.

Cecilia Danesi, especialista en IA y derechos digitales, destaca que la legislación por sí sola es insuficiente y que es necesaria una supervisión permanente. Los sistemas de alto riesgo deben ser evaluados continuamente para asegurar que no violen derechos humanos o tengan sesgos. La clave estará en la supervisión y en garantizar sistemas éticos y respetuosos con los derechos humanos.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario