Muchos trabajadores están dejando de pensar, alertan expertos en IA de Microsoft :

La inteligencia artificial generativa, como ChatGPT y Copilot, ha revolucionado la manera en que los trabajadores abordan sus tareas diarias. Sin embargo, un estudio realizado por Microsoft Research y la Universidad Carnegie Mellon ha revelado una preocupante tendencia, el uso excesivo de estas herramientas puede estar afectando la capacidad de pensamiento crítico y la resolución de problemas.

Los investigadores advierten que muchos profesionales confían ciegamente en las respuestas de la IA, dejando de cuestionar la información y perdiendo habilidades cognitivas fundamentales.

Uno de los hallazgos más relevantes del estudio es la necesidad de mejorar el diseño de las herramientas de IA empresarial para fomentar un uso más reflexivo. Según los investigadores, la confianza ciega en los sistemas de IA reduce la participación activa en los procesos de toma de decisiones.

¿Depender demasiado de la IA nos hace menos críticos
Los investigadores advierten que muchos profesionales confían ciegamente en las respuestas de la IA, dejando de cuestionar la información y perdiendo habilidades cognitivas fundamentales.

Uno de los hallazgos más relevantes del estudio es la necesidad de mejorar el diseño de las herramientas de IA empresarial para fomentar un uso más reflexivo. Según los investigadores, la confianza ciega en los sistemas de IA reduce la participación activa en los procesos de toma de decisiones.

¿Depender demasiado de la IA nos hace menos críticos
Esto sugiere que la relación entre la autoconfianza y el uso de la IA es clave para determinar si un usuario aplica pensamiento crítico o simplemente delega decisiones en la tecnología. La IA, lejos de ser una aliada en todos los casos, puede convertirse en una muleta cognitiva que limita el desarrollo intelectual de los trabajadores.

Para abordar este problema, proponen que las plataformas de inteligencia artificial incorporen mecanismos que promuevan el pensamiento crítico, tales como explicaciones detalladas de cómo se generan las respuestas y estrategias para alentar a los usuarios a cuestionar la información.

Este enfoque coincide con los principios de la «IA explicable», cuyo objetivo es hacer que los procesos detrás de las respuestas sean más transparentes para los usuarios.

A pesar de los desafíos, los autores del estudio no abogan por dejar de usar la IA, sino por desarrollar estrategias que permitan a los trabajadores mantener sus habilidades de resolución de problemas.

Sugieren que, en lugar de reducir su uso, los profesionales reciban capacitación para verificar la información generada por la IA, integrarla de manera crítica y gestionar eficazmente las tareas que delegan a estas herramientas.

Esto implica un cambio en la forma en que los trabajadores interactúan con la tecnología, ya que, en lugar de utilizar la IA como una fuente infalible de información, deberían asumir un papel más activo en la evaluación de sus respuestas. De este modo, se evitaría la dependencia absoluta de la IA y se mantendría un equilibrio entre el uso de la tecnología y el pensamiento crítico.

Al utilizar herramientas genAI, el esfuerzo invertido en el pensamiento crítico pasa de la recopilación de información a la verificación de información; de la resolución de problemas a la integración de respuestas de IA; y de la ejecución de tareas a la gestión de tareas», explican los autores.

Según los investigadores, esta tendencia puede alterar la forma en que las personas abordan los problemas, trasladando el esfuerzo cognitivo desde la resolución activa de problemas hacia la validación de respuestas generadas por IA.

En este contexto, el desafío no es solo aprender a usar la IA, sino también desarrollar habilidades que permitan aprovechar sus ventajas sin perder la capacidad de pensar críticamente.

Leave comment

Your email address will not be published. Required fields are marked with *.