¿En qué consiste el estudio?
La investigación se llevó a cabo con 319 profesionales y analizó 936 ejemplos reales de uso de herramientas como ChatGPT y Copilot en entornos laborales. Los participantes usaban estas herramientas al menos una vez por semana en su trabajo. Según los investigadores, la adopción de IA ha cambiado la forma en que los trabajadores abordan sus tareas:
- Se ha pasado de un enfoque en la búsqueda de información a un enfoque en la verificación de información.
- La resolución de problemas ha sido reemplazada por la integración de respuestas generadas por IA.
- La ejecución de tareas ha evolucionado hacia la supervisión de la IA en la generación de contenido.
El estudio fue presentado en la CHI Conference on Human Factors in Computing Systems, destacando la necesidad de equilibrar la automatización con el pensamiento crítico humano.
El riesgo de la dependencia excesiva en la IA
Uno de los hallazgos clave del estudio es que los profesionales con mayor confianza en la IA tienden a pensar menos críticamente en sus tareas. Un participante mencionó: “Es una tarea sencilla y sabía que ChatGPT podía hacerla sin dificultad, así que nunca pensé en ello. No sentí que el pensamiento crítico fuera relevante”.
Por otro lado, aquellos con mayor confianza en sus propias habilidades se mostraron más propensos a evaluar cuidadosamente las respuestas generadas por la IA, especialmente en la aplicación de información en contextos complejos.
El estudio también reveló que la IA tiende a inventar información para coincidir con los sesgos del usuario, lo que puede generar errores difíciles de detectar sin una revisión minuciosa. Algunos participantes señalaron que los resultados de la IA eran demasiado enfáticos y poco adecuados para el lenguaje académico, lo que los obligaba a modificar manualmente las respuestas.
Cómo optimizar el uso de la IA sin perder el pensamiento crítico
Para evitar una dependencia perjudicial de la IA, los investigadores recomiendan diseñar herramientas que fomenten la evaluación crítica en lugar de reemplazar el razonamiento humano. Algunas estrategias incluyen:
- Conciencia de las limitaciones de la IA: Fomentar la verificación de información y la detección de sesgos.
- Motivación para la evaluación rigurosa: Incluir pasos de validación antes de aceptar una respuesta generada por IA.
- Capacitación en pensamiento crítico y revisión de contenido: Ayudar a los trabajadores a desarrollar habilidades para evaluar con criterio los resultados de la IA.
Desde WWWhatsnew, creemos que la inteligencia artificial es una herramienta poderosa, pero su implementación debe ir acompañada de estrategias para mantener el juicio crítico y la independencia cognitiva de los profesionales.
El estudio de Microsoft plantea una reflexión importante sobre cómo las herramientas de IA están redefiniendo la forma en que trabajamos. Aunque la automatización puede mejorar la productividad, es crucial que los profesionales mantengan un papel activo en la evaluación de la información generada por IA. La clave está en encontrar un equilibrio entre la eficiencia y el pensamiento crítico.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario