Inteligencia artificial

La creciente fiebre por usar ChatGPT en el entorno laboral en Estados Unidos genera preocupaciones y desafíos

La adopción de ChatGPT, un chatbot impulsado por inteligencia artificial (IA) desarrollado por OpenAI, está en aumento en el lugar de trabajo de Estados Unidos, pero esto también ha dado lugar a preocupaciones y medidas de precaución por parte de las empresas y empleadores.

Según una encuesta realizada por Reuters/Ipsos a 2.625 adultos en todo Estados Unidos entre el 11 y el 17 de julio, alrededor del 28% de los encuestados informaron que utilizan regularmente ChatGPT en sus tareas laborales diarias. Sin embargo, solo el 22% indicó que sus empleadores permiten explícitamente el uso de tales herramientas externas. Esto destaca una brecha entre la adopción real por parte de los empleados y la aceptación oficial por parte de las empresas.

A pesar de su creciente popularidad, el uso de ChatGPT en el entorno laboral ha generado preocupaciones legítimas. Empresas de seguridad y otros actores del sector han planteado la posibilidad de filtraciones de propiedad intelectual y estrategia, lo que ha llevado a compañías como Microsoft y Google a limitar su uso.

A pesar de las precauciones, los trabajadores han encontrado formas creativas de utilizar ChatGPT para tareas diarias. Algunos ejemplos incluyen la redacción de correos electrónicos, la elaboración de resúmenes de documentos y la realización de investigaciones preliminares.

El uso generalizado de ChatGPT en el lugar de trabajo también ha suscitado cuestiones sobre la privacidad y la seguridad de los datos. La recopilación masiva de datos por parte de OpenAI para entrenar al chatbot ha generado preocupaciones en Europa y ha llevado a conflictos con reguladores y organismos de privacidad.

Las empresas han tomado diferentes enfoques en respuesta a esta creciente tendencia. Algunas han prohibido explícitamente el uso de herramientas de IA externas, mientras que otras están explorando formas de implementar ChatGPT de manera segura y productiva. Coca-Cola, por ejemplo, ha lanzado una versión empresarial de ChatGPT para mejorar la eficiencia operativa, manteniendo los datos dentro de su propia red segura.

Sin embargo, la cautela es esencial. Los expertos en seguridad cibernética advierten sobre posibles riesgos, como señales maliciosas que podrían explotar vulnerabilidades en los chatbots de IA y exponer información confidencial.

A medida que la adopción de tecnologías de IA como ChatGPT continúa expandiéndose en el entorno laboral, las empresas enfrentarán el desafío de equilibrar la eficiencia y la productividad con la seguridad y la protección de datos.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario