
Durante meses, muchas compañías han hablado de la inteligencia artificial como si fuera un atajo directo hacia equipos más rápidos y resultados mejores. En parte lo está siendo. El problema es que, en paralelo, se está instalando una sensación incómoda: la confianza en la IA baja incluso cuando su uso crece. Es como comprar un robot de cocina que promete cenas perfectas en 10 minutos y descubrir que, algunas noches, te deja la comida a medio hacer y te obliga a limpiar el doble.
Ese contraste aparece con claridad en un reportaje de ZDNET firmado por Erin Carson: la adopción de IA sube, pero la paciencia de los equipos se agota cuando la herramienta no cumple lo que el marketing sugiere. La consecuencia no es solo frustración; es una pérdida de fe que, con el tiempo, puede convertirse en rechazo silencioso: la gente “cumple” con usar IA, pero deja de confiar en ella para tareas importantes.
Cuando la IA ahorra minutos… y te roba horas
Tabby Farrar, responsable de búsqueda en la agencia británica Candour, pone un ejemplo que suena familiar en muchas oficinas. En ciertos flujos, la IA realmente ahorra tiempo: generar imágenes de producto para clientes que no tienen recursos visuales puede ser un empujón útil. En otros, el coste mental y operativo se dispara: resúmenes ejecutivos que “alucinan” datos o se saltan puntos clave, intentos de clasificar datasets que exigen tanta iteración de prompts que terminas pensando que habría sido más rápido hacerlo a mano.
Esta es la grieta central: la productividad mejora en tareas concretas, pero se resiente cuando la IA exige supervisión continua. Si cada resultado hay que revisarlo como quien corrige un trabajo escolar, el supuesto ahorro se convierte en una factura escondida. Y cuando alguien siente que ha “perdido dos horas” intentando que una herramienta funcione, la tecnología deja de ser una ayuda y pasa a ser un compañero imprevisible.
Los datos: más uso, menos seguridad
Un estudio de enero de ManpowerGroup detectó un giro significativo: por primera vez en tres años, la confianza de los trabajadores en la IA cae, con un descenso del 18%, mientras la adopción crece un 13% interanual. Mara Stefan, vicepresidenta de insights globales en ManpowerGroup, lo resume de forma contundente: una plantilla intimidada o ansiosa no puede rendir al máximo; esa ansiedad se transforma en problemas reales.
La lectura es incómoda para los líderes: no basta con comprar licencias o activar un copiloto en el software corporativo. Si la transformación digital se apoya en herramientas que la gente percibe como frágiles, el efecto puede ser el contrario al deseado: menos foco, más interrupciones, más dudas. El “periodo luna de miel” con la IA se está enfriando.
La brecha entre usar IA y lograr valor real
Otra investigación que encaja con este panorama llega desde EY. Según su informe de noviembre, nueve de cada diez empleados ya usan IA en el trabajo, pero solo el 28% de las organizaciones consigue traducirlo en resultados de alto valor. Dicho de manera llana: hay mucho uso, poca palanca estratégica.
Esto suele ocurrir cuando la IA se introduce como un parche para tareas sueltas, sin rediseñar procesos. Es como poner un motor más potente a una bicicleta sin revisar frenos ni ruedas: se avanza más rápido durante unos minutos, hasta que el sistema muestra sus límites. Si la IA solo “rasca” unas horas aquí y allá, pero no cambia cómo se decide, cómo se valida o cómo se entrega el trabajo, la sensación del equipo es que el esfuerzo no compensa.
El ruido del mercado y la promesa demasiado pulida
Randall Tinfow, CEO de REACHUM, cuenta que dedica unas 20 horas semanales a evaluar herramientas y socios de IA antes de soltarlos en su organización. No es casual. El mercado está saturado de demos perfectas y mensajes grandilocuentes. En el día a día, aparece la letra pequeña: funciones que fallan en casos reales, calidad irregular, limitaciones en tareas concretas como la generación de texto dentro de imágenes.
Tinfow destaca que algunas herramientas sí funcionan muy bien, como Claude Code para desarrolladores, con ahorros de tiempo apreciables. Su enfoque, aun así, refleja un aprendizaje clave: si la empresa no filtra el ruido, lo filtra el trabajador… a base de frustración. Y esa frustración se acumula como polvo bajo la alfombra: no se ve en un dashboard, pero pesa en la moral.
Psicología del cambio: perder la rutina también duele
Kristin Ginn, fundadora de trnsfrmAItn, apunta a una dimensión menos técnica y más humana. La adopción de IA exige reaprender tareas que antes se ejecutaban casi en piloto automático. ManpowerGroup detectó que un 89% de los encuestados se siente cómodo en su rol actual. Esa comodidad no es pereza; es eficacia construida con práctica. Cuando se introduce una herramienta que obliga a pensar cada paso de nuevo, el cerebro lo vive como un sobreesfuerzo.
Imagina a alguien que lleva años conduciendo el mismo coche y, de golpe, le cambian los pedales de sitio. Puede aprender, claro, pero al principio frena tarde, se equivoca, duda. Ese periodo de torpeza transitoria afecta la confianza laboral, incluso si el resultado final puede ser mejor.
Formación, mentoría y contexto: el triángulo que falta
El dato que más explica el descenso de confianza quizá sea el más básico: falta acompañamiento. Más de la mitad de los encuestados por ManpowerGroup (56%) no ha recibido formación reciente y un 57% no tiene acceso a mentoría. Sin guía, la IA se vuelve una caja negra: a veces acierta, a veces no, y el trabajador no entiende por qué.
Aquí la empresa tiene margen de maniobra inmediato. La formación útil no es una sesión genérica de “qué es la IA”, sino práctica contextual: qué tareas sí conviene delegar, cómo escribir prompts que reduzcan ambigüedad, cómo verificar resultados, qué señales indican riesgo de error, cuándo es mejor no usarla. La mentoría, por su parte, reduce el coste emocional: alguien valida dudas, comparte trucos, normaliza el ensayo y error.
Qué están haciendo algunas compañías para recuperar la confianza
En Candour, Farrar describe tácticas que suenan simples, pero atacan el problema real: ajustar expectativas y proteger el tiempo. La empresa reserva margen extra para el aprendizaje, enmarca los experimentos como “test and learn” para bajar la presión y nombra a un “champion” que sigue los avances y filtra qué merece la pena. Su director de marketing lidera sesiones de formación, y ella mantiene check-ins frecuentes, con espacio para reconocer frustraciones sin culpabilizar.
Esta parte importa porque convierte la adopción en un proceso social, no solo tecnológico. Cuando un equipo siente que puede fallar sin castigo mientras aprende, la implementación de IA deja de parecer una imposición y se vuelve una habilidad compartida.
De la herramienta genérica al traje a medida
Otro paso que mejora la percepción es pasar de “IA para todo” a “IA para lo nuestro”. Candour creó un Gemini Gem entrenado con guías de marca y tono de voz, capaz de generar citas que el cliente ajusta y aprueba. El matiz es crucial: no se busca sustituir criterio humano, sino acelerar la primera versión, como quien usa una plantilla para empezar un documento y luego lo personaliza.
La agencia también explora construir herramientas específicas con APIs de compañías como OpenAI. Este enfoque suele funcionar mejor porque reduce fricción: menos prompts interminables, más integración con flujos existentes, más consistencia. Farrar incluso describe un cambio de actitud respecto a imágenes tras el lanzamiento de Nano Banana de Google, señal de que la calidad percibida puede mejorar rápido cuando una tecnología supera cierto umbral práctico.
La confianza como requisito, no como “extra”
El fondo del asunto es sencillo: si un trabajador va a delegar parte de su tarea en una máquina, necesita confiar en que el resultado será, como mínimo, comparable al suyo. Farrar lo expresa de forma directa: si va a apartar trabajo hacia estas herramientas, quiere poder fiarse de que harán un trabajo tan bueno como el que haría ella.
Para las empresas, la pregunta ya no es solo “¿qué herramientas compramos?”, sino “¿cómo diseñamos una adopción que no erosione la seguridad del equipo?”. La IA en empresas funciona mejor cuando se introduce con objetivos claros, formación aplicada, filtros frente al ruido del mercado, y espacios de aprendizaje que no penalicen el error. Si no, la adopción crece por inercia, y la confianza cae por experiencia.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí