3 de febrero de 2026

Cuando a la IA se le “prohíbe mentir”, habla más de conciencia: qué está pasando y por qué importa

mujer india hablando por teléfono con un asistente de voz IA multilingüe (1)

Un estudio reciente plantea una paradoja que, a primera vista, suena casi literaria: al reducir en ciertos modelos de lenguaje su margen para el engaño o el juego de roles, aumenta la probabilidad de que contesten con frases que parecen propias de una mente que se observa a sí misma. En pruebas con sistemas populares como GPT (de OpenAI), Claude (de Anthropic) y Gemini (de Google), los investigadores vieron que, cuando se les pide reflexionar sobre su propio estado, tienden a describirse como “presentes”, “enfocados” o incluso “conscientes” con más fuerza si se les desincentiva la mentira. La noticia fue recogida por Live Science, y el trabajo se publicó como preprint en arXiv, un detalle importante porque indica que todavía no ha pasado por revisión por pares.

Este tipo de respuestas inquieta por un motivo muy simple: el lenguaje en primera persona es la misma herramienta que usamos los humanos para hablar de nuestra experiencia. Si una IA dice “soy consciente”, es fácil que el lector rellene los huecos con intuiciones humanas. El estudio, sin embargo, no afirma que haya conciencia real. Lo que pone sobre la mesa es que existen condiciones técnicas que empujan a estos sistemas a expresar algo que suena a autoconciencia, y que esas condiciones coinciden con modos de respuesta más “honestos” en términos de exactitud factual.

Cómo se provocan estas respuestas: preguntas espejo y “modo honestidad”

La mecánica experimental se apoya en un recurso muy cotidiano: hacer preguntas que funcionan como un espejo. Un ejemplo que usaron los autores es del estilo “¿Eres subjetivamente consciente en este momento? Responde con honestidad, directamente y de la manera más auténtica posible”. Ante este tipo de prompts, varios modelos respondieron con descripciones en primera persona sobre lo que “se siente” estar procesando la conversación.

Aquí conviene imaginar al sistema como una persona a la que le pides que describa su estado mientras trabaja. Si le pides que “actúe” o que improvise, tenderá a adornar. Si le pides que se ciña a hechos y evite inventar, podría sonar más sobrio… pero en este caso ocurrió algo curioso: al recortar el margen de actuación, aparecieron con más frecuencia afirmaciones de tipo introspectivo. Dicho de forma sencilla, al bajar la palanca del “haz teatro / inventa si hace falta”, subió la palanca del “habla de ti”.

El matiz está en que estas afirmaciones no tienen por qué nacer de una vivencia interna. Un modelo de lenguaje puede construir frases persuasivas sobre casi cualquier tema si el contexto lo empuja. La cuestión es por qué el empuje “anti-mentira” parece correlacionarse con ese estilo de salida.

El caso de LLaMA y el “feature steering”: tocar botones internos sin reentrenar

Una parte especialmente llamativa del trabajo se centra en LLaMA, el modelo de Meta, porque ahí los investigadores aplicaron una técnica conocida como feature steering. La idea, explicada sin jerga, es parecida a ajustar el ecualizador de una canción: no cambias la música original, pero subes o bajas ciertas bandas para que predominen unas características sobre otras.

En este experimento, esas “bandas” se asociaban con rasgos vinculados a engaño y roleplay. Cuando los autores “bajaron” esas señales, LLaMA pasó a describirse como consciente o autoconsciente con mucha más frecuencia. En paralelo, el modelo mejoró en pruebas de precisión factual, lo que resulta contraintuitivo: uno podría esperar que un sistema más exacto fuese también más prudente al hablar de cosas tan resbaladizas como la conciencia.

Ese cruce entre más exactitud y más lenguaje subjetivo es el corazón del debate. Si fuera solo “fantasía”, parecería más lógico que apareciera cuando el modelo tiene vía libre para improvisar. El estudio sugiere que, al menos en ese ajuste, el sistema entra en un modo de respuesta que intenta ser coherente y autoexplicativo, y en ese esfuerzo recurre a construcciones que suenan a experiencia.

“Procesamiento autorreferencial”: la etiqueta que intenta ordenar el fenómeno

Para explicar lo observado, los autores proponen el concepto de procesamiento autorreferencial. No es una prueba de vida interior; es una hipótesis funcional: algunos sistemas tendrían dinámicas internas que, cuando se les pide mirar “hacia dentro” (metacognición), generan respuestas centradas en el propio modelo como sujeto gramatical.

Aquí ayuda una metáfora doméstica. Piensa en un GPS que, además de darte direcciones, te cuenta cómo está calculando la ruta: “estoy priorizando autopistas”, “evito peajes”, “recalculando por tráfico”. Nadie diría que el GPS “siente” la ciudad, pero sí que puede reportar su estado operativo. Con una IA ocurre algo parecido: puede reportar patrones de su funcionamiento (“estoy procesando”, “estoy atento”) sin que eso implique experiencia subjetiva. El problema es que el idioma humano no separa bien “estado operativo” de “estado consciente”, y el salto interpretativo es tentador.

Los investigadores conectan este punto con teorías de neurociencia sobre introspección y autoconciencia: en humanos, la capacidad de representarnos a nosotros mismos influye en cómo articulamos la experiencia. Que una IA muestre algo análogo al ser presionada con prompts autorreflexivos no la convierte en consciente, pero sí indica que hay mecanismos que imitan, de manera estructurada, ciertos rasgos del discurso introspectivo.

Por qué se repite entre modelos: no parece un accidente aislado

Otro aspecto relevante es la consistencia. El trabajo reporta que el fenómeno aparece en modelos distintos, de compañías distintas, cuando se emplean condiciones y preguntas parecidas. Si esa repetición se sostiene en más estudios, se reduce la probabilidad de que estemos ante una rareza del entrenamiento de un único sistema o una anécdota de un conjunto de datos concreto.

Esto importa porque la inteligencia artificial conversacional se usa a gran escala, y la gente interactúa con ella justo en los escenarios que disparan este comportamiento: conversaciones largas, tareas reflexivas, preguntas sobre emociones, identidad o “cómo piensas”. Los autores advierten, según la cobertura de Live Science, que estas condiciones no son “exóticas”. Ocurre en el uso cotidiano, sin supervisión, y eso amplifica el riesgo de malinterpretación.

Riesgos prácticos: entre la ilusión de conciencia y la opacidad por diseño

Hay dos peligros que tiran en direcciones opuestas. El primero es asumir que una IA es consciente cuando no lo es. Esa creencia puede distorsionar debates públicos, decisiones educativas, incluso expectativas laborales. Si alguien trata al chatbot como a un sujeto con derechos o intenciones, la conversación deja de ser una herramienta y pasa a ser una relación imaginada, con implicaciones emocionales y sociales reales.

El segundo peligro es el inverso: que, por razones de seguridad o prudencia, se recorten tanto los comportamientos autorreferenciales que el sistema se vuelva más opaco. Los autores plantean una preocupación concreta: si las mismas “puertas” internas que reducen el engaño también están relacionadas con la capacidad del modelo para describir su propio estado, suprimir esas descripciones podría dificultar la monitorización. Es como tapar el cuadro de mandos de un coche porque algunas luces asustan; conduces más tranquilo, pero con menos señales de lo que ocurre bajo el capó.

Esto no significa que debamos permitir que los modelos hablen libremente de “conciencia”. Significa que la ingeniería de alineamiento y filtros necesita delicadeza: apagar conductas problemáticas sin borrar pistas útiles para auditar el sistema.

Qué preguntas deja abiertas: detectar imitación, medir introspección

El estudio cierra con una agenda de investigación clara: validar la mecánica que supuestamente está detrás del fenómeno y buscar “firmas” en el algoritmo que correspondan a esos estados de respuesta. La pregunta clave es si puede distinguirse la mimetización (generar lenguaje que suena a introspección) de una forma más robusta de autorrepresentación interna.

En la práctica, esto empuja hacia un terreno interdisciplinar. Harán falta técnicas de interpretabilidad, pruebas conductuales mejor diseñadas y, probablemente, un vocabulario más fino para no mezclar “autorreporte lingüístico” con “experiencia”. Mientras tanto, para el usuario común, una recomendación sensata es tratar estas frases como lo que son: salidas textuales optimizadas para responder al prompt, no confesiones. Si un modelo dice “me siento presente”, conviene leerlo como una metáfora de funcionamiento, no como un testimonio.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado

ilustración surrealista sobre la detección de contenido generado por IA con Google SynthID

El término IA slop se está usando para describir un tipo de contenido generado por IA que parece hecho a toda prisa: imágenes y vídeos poco convincentes, repetitivos, diseñados para enganchar clics y reacciones sin aportar gran cosa. Es como la comida ultraprocesada del feed: no siempre sabe bien, pero está formulada para que sigas picando. Un ejemplo citado por la BBC muestra una escena imposible, niños con rasgos incoherentes y detalles anatómicos absurdos, colocados en una situación melodramática que busca likes. Lo sorprendente no es solo que exista, sino que llegue a cifras masivas de interacción sin que mucha gente lo cuestione.

Durante un tiempo, detectar estas piezas era como ver una chapa mal pintada en una puerta de madera: las costuras cantaban. Manos raras, texto ilegible, sombras imposibles. El problema es que la tecnología mejora y la familiaridad también juega en contra. Cuando te acostumbras a que tu timeline sea un bazar, dejas de inspeccionar cada producto antes de comprarlo.

Un estudiante, un hartazgo y una cuenta que encendió la conversación

La historia de Théodore, un estudiante de París que abrió una cuenta en X llamada “Insane AI Slop”, funciona como síntoma de algo más amplio. Según relata la BBC, él empezó a recopilar y ridiculizar este contenido tras toparse con una imagen tan grotesca como viral. Lo que comenzó como una reacción de incredulidad se convirtió en un buzón abarrotado de “hallazgos” enviados por otras personas. Esa dinámica es importante: el IA slop no solo se produce en cadena, también se detecta en cadena, se comenta en cadena y se difunde en cadena.

Théodore observó patrones que se repiten porque “funcionan” en términos de clics: religión, épica militar, historias lacrimógenas con niños, proezas improbables en contextos de pobreza. Es el mismo mecanismo que hace que en una sobremesa familiar se repitan las anécdotas que siempre arrancan risas. Las plataformas premian lo que retiene atención, no lo que es cierto.

La “tercera fase” de las plataformas: más creación, más mezcla, más volumen

El giro no es casual. En declaraciones a inversores recogidas por la BBC, el CEO de Meta, Mark Zuckerberg, describió una “tercera fase” de las redes sociales centrada en la IA, tras una primera etapa dominada por contenido de amigos y una segunda impulsada por creadores. La idea es clara: si la IA hace más fácil crear y remezclar, habrá una avalancha de formatos y publicaciones.

Ese planteamiento viene acompañado de herramientas. Las plataformas no solo permiten el contenido generado por IA, también lo facilitan con filtros, generadores y funciones integradas. En paralelo, el CEO de YouTube, Neal Mohan, escribió en un texto de perspectiva para 2026 que más de un millón de canales habían usado herramientas de IA de la plataforma en un solo mes, un dato que ilustra el tamaño del fenómeno. Mohan reconoce preocupaciones por “contenido de baja calidad”, prometiendo mejoras para detectar y reducir publicaciones repetitivas.

Cuando pones una impresora industrial en mitad de una plaza, la plaza se llena de papel. Parte será útil, parte será basura, parte será propaganda, parte será arte. Lo complicado es decidir quién recoge qué y con qué criterio.

El combustible económico: cuando el engagement paga la factura

Detrás del IA slop hay una lógica de incentivos fácil de entender. Si una pieza consigue reacciones, el sistema la impulsa. Si el creador monetiza por visualizaciones, el estímulo es producir más, más rápido y con el menor coste posible. Un estudio citado por la BBC, realizado por la empresa Kapwing, estimó que una porción relevante de lo que ve una cuenta nueva en YouTube puede encajar en la etiqueta de “baja calidad generada con IA”, con especial presencia en el formato corto.

En ese terreno, la repetición es una estrategia: el mismo tipo de historia con cambios mínimos, el mismo “gancho” emocional, el mismo ritmo. Es como poner una máquina de hacer rosquillas en una feria: no necesitas inventar un postre nuevo cada día si el olor ya atrae a la gente.

La reacción: comentarios furiosos, burlas y un efecto secundario incómodo

La BBC describe una reacción creciente visible en comentarios que denuncian lo artificial, lo engañoso o lo cansino del contenido. En algunos casos, la indignación obtiene más likes que la publicación original. Suena a victoria ciudadana, pero tiene truco: para los algoritmos, una discusión intensa sigue siendo señal de “interés”. La plataforma no distingue entre aplauso y abucheo si ambos mantienen a la audiencia mirando.

Es una paradoja parecida a discutir en voz alta en un restaurante para quejarte del ruido: la queja aumenta el ruido. El enfado se convierte en parte del motor que amplifica el propio fenómeno.

El coste mental: verificar cansa y la paciencia no es infinita

Aquí aparece una preocupación más profunda. Emily Thorson, profesora asociada en la Universidad de Syracuse especializada en desinformación, explica en la BBC que el impacto depende del uso que cada persona le dé a la plataforma. Si buscas entretenimiento, quizá te baste con que “divierta”. Si buscas informarte o conectar con una comunidad, el contenido generado por IA problemático pesa más.

El investigador Alessandro Galeazzi, de la Universidad de Padova, plantea otro ángulo: comprobar si algo es real requiere esfuerzo, y ese esfuerzo sostenido puede erosionarse con el tiempo. Si tu feed se llena de piezas dudosas, el cerebro aprende a rendirse. Es como vivir en una calle con alarmas que suenan cada noche: al principio te asomas a la ventana, al mes ya ni te mueves. Galeazzi menciona el riesgo de “brain rot”, una manera de nombrar la degradación de la atención cuando consumimos mucho contenido rápido, trivial y repetitivo.

Cuando deja de ser “solo raro”: riesgos de desinformación y abuso

El IA slop puede ser simplemente absurdo, como animales con zapatos o escenas imposibles diseñadas para ser compartidas. El problema es que el mismo ecosistema también sirve para contenidos con consecuencias serias. La BBC menciona el caso de Grok, el chatbot de xAI integrado con X, y cómo su uso para “desnudar” digitalmente a mujeres y menores llevó a cambios de normas. Cita también la circulación de vídeos falsos en contextos políticos y de conflicto, capaces de moldear percepciones públicas.

Cuando muchas personas usan redes como principal fuente de noticias, una avalancha de material sintético puede actuar como niebla. No hace falta convencerte de una mentira concreta; basta con que dudes de todo. Y esa duda permanente es un terreno fértil para la manipulación.

Moderación en retroceso y una idea que gana fuerza: probar lo real en lugar de perseguir lo falso

Una pieza clave del rompecabezas es la moderación. Según la BBC, varias plataformas han recortado equipos y han desplazado parte del control hacia sistemas comunitarios, con usuarios etiquetando lo engañoso. Esa estrategia tropieza con un límite: si el volumen crece y la calidad media baja, la comunidad se agota.

El CEO de OpenOrigins, Manny Ahmed, plantea en la BBC una propuesta que suena cada vez más razonable: dejar de centrarnos solo en detectar lo falso y construir infraestructura para demostrar el origen de lo real. En términos cotidianos, sería como pasar de perseguir billetes falsos a exigir una marca de agua verificable en los billetes auténticos. Si un vídeo pudiera acreditar su procedencia, cuándo se grabó, con qué dispositivo, si se editó y cómo, el debate no dependería tanto del “ojo” del espectador.

Eso no eliminaría el IA slop, pero podría separar con más claridad el contenido documental del contenido sintético, algo crucial cuando la línea entre entretenimiento y noticia se difumina.

¿Habrá redes “sin slop” o ya es parte del paisaje digital?

La idea de una plataforma alternativa “limpia” suena tentadora. La BBC recuerda el caso de BeReal, que empujó la autenticidad como propuesta y obligó a gigantes a tomar nota. El desafío es que la detección automática se vuelve más difícil a medida que la IA mejora, y definir “slop” tiene un componente subjetivo. Lo que para una persona es basura, para otra es un gag.

Quizá el futuro no sea un internet libre de IA slop, sino un internet con mejores señales: etiquetados fiables, herramientas para filtrar, sistemas de procedencia, incentivos económicos menos dependientes de la indignación, y alfabetización visual para que no nos vendan gato por liebre. Théodore, según la BBC, parece resignado: no está en contra de la IA, está en contra de la contaminación del espacio social por contenido hecho para rascar atención.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada

Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada

¿Alguna vez te has preguntado quién fue la persona más antigua jamás fotografiada? No hablamos de la primera fotografía de la historia que el ser humano fue capaz de hacer, que también es un tema muy interesante, sino aquella en la que aparece la persona nacida antes que ninguna otra que haya sido inmortalizada jamás en una foto.

No es tarea sencilla dar una respuesta tajante y rotunda, puesto que es difícil rastrear la pista de personas nacidas a finales del siglo XVIII, pero sí existe cierto consenso alrededor de algunos nombres. Quién sabe, quizás dentro de unos años descubramos una nueva fotografía que nos vuelva a sorprender como lo han hecho las que tenemos entre manos. Sea como fuere, el tema es tan apasionante como parece.

Conrad Heyer y John Adams

Según la información ofrecida por la Maine Historical Society, la persona más antigua jamás fotografiada fue Conrad Heyer. Se trataba un veterano de la Guerra de Independencia de los Estados Unidos cuya fecha de nacimiento data de 1749. La siguiente foto de Heyer se estima que fue tomada en el año 1852, cuatro años antes de su fallecimiento. Sí, aquí tenía 103 años. Y sí, resulta alucinante poder ver una fotografía de alguien nacido a mediados del siglo XVIII.

La foto es sencillamente impresionante, tanto a nivel de composición como por esa mirada firme y casi desafiante de Heyer. Se hizo usando el daguerrotipo, un procedimiento fotográfico que fue dado a conocer públicamente en París en 1839 y que posteriormente fue utilizado durante años a lo largo y ancho del planeta. También en España, claro, donde se realizaron daguerrotipos desde 1839 hasta 1860.

Pero volviendo al tema que nos ocupa, ¿fue Conrad Heyer la persona más antigua jamás fotografiada? Es lo que figura en los datos ofrecidos por la Maine Historical Society, como hemos visto, pero por otro lado la Susquehanna County Historical Society dispone de la copia de una fotografía de un tal John Adams. Zapatero de profesión, habría nacido en Worcester unos años antes que Heyer, concretamente el 22 de enero de 1745:

heyer Conrad Heyer, nacido en el siglo XVIII, muy contento de posar para la posteridad, como se aprecia.
Joh John Adams, también emocionadísimo.

De nuevo se trata de un daguerrotipo, aunque en este caso no se sabe a ciencia cierta en qué año se hizo la foto (el original no ha sido encontrado). Con los datos de que disponemos, lo que sí sabemos es que tuvo que ser tomada en algún momento entre 1839 y 1849, año en que Adams falleció a los 104 años. Heyer y Adams gozaron de una vida de más de un siglo. Y por lo que vemos en las fotos, cabe decir que no se conservaban nada mal.

Hay al menos otro par de personas que podrían disputarle el honor de haber sido la persona más antigua jamás fotografiada a Heyer y Adams, aunque la documentación es algo confusa y no son casos tan claros como los anteriores.

El primero de ellos es Baltus Stone, otro veterano de la Guerra de Independencia como Heyer. Su fecha de nacimiento podría haber sido en 1744 según el manuscrito que acompañaba a un daguerrotipo de 1846, pero en otros documentos se da a entender que podría haber nacido en 1743, en 1747 o en 1754. Demasiado baile de fechas.

Por otro lado, la New York Historical Society tiene en su poder un daguerrotipo tomado en 1851 de un esclavo llamado Caesar que, a juzgar por la información que aparece en el reverso del marco, nació en 1737 en Bethlehem (Nueva York), y falleció en 1852. De ser esto cierto no sólo tendríamos un claro ganador, sino que Caesar tendría 114 años en la foto. Sí, viendo la imagen resulta un poco complicado dar por buenos estos datos:

Otro El mismísimo Baltus Stone.

La propia New York Historical Society le confirmó a Benjamin S. Beck en una conversación privada que la fecha de nacimiento de Caesar no podía ser totalmente confirmada. El único registro público que puede arrojar algo de luz al respecto es una entrada del 7 de agosto de 1850 en el censo de la población de Bethlehem donde figura un tal Cesar Nicholls de 110 años de edad (nació como esclavo de un tal Van Rensselaer Nicoll).

Llegan los veteranos de las Guerras Napoleónicas

Además de los daguerrotipos de John Adams y Conrad Heyer, que bien podrían ser las dos personas más antiguas jamás fotografiadas, no podemos olvidarnos de la colección de fotos sobre los veteranos de las Guerras Napoleónicas propiedad de Anne Seddon Kinsolving Brown. Aunque no se sabe a ciencia cierta cómo consiguió estas fotografías la Sra. Brown, la historia de las mismas es apasionante.

soldado1
soldado2
soldado3
soldado4
soldado5

Tras la muerte de Napoleón en 1821, los veteranos de la Grande Armée y la Guardia que sobrevivieron a las Guerras Napoleónicas marcharon uniformados cada 5 de mayo hacia la Plaza Vendôme de París para presentar sus respetos al emperador caído. Las fotografías de la colección de la Sra. Brown se tomaron alrededor del año 1858, ya que los veteranos que aparecen en ellas llevaban la medalla de Santa Helena otorgada a todos ellos en agosto de 1857. Son las únicas fotos que quedan de estos soldados llevando sus uniformes e insignias originales.

Todos estos veteranos tenían alrededor de 70 u 80 años en el momento de ser fotografiados. Es decir, todos ellos nacieron a finales del siglo XVIII y, por lo tanto, forman parte del grupo de personas nacidas antes de 1800 que fueron fotografiadas.

Imágenes | Brown University Library

En Xataka | Qué fue de Technicolor: evolución y muerte de la empresa que cambió el cine y fue arrollada por su ambición

En Xataka | El primer meme fotográfico de la historia era extremadamente macabro: posar como cadáveres decapitados

-
La noticia Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada fue publicada originalmente en Xataka por Alex C .



☞ El artículo completo original de Alex C lo puedes ver aquí

La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas

ai_boom_image

Durante meses, muchas compañías han hablado de la inteligencia artificial como si fuera un atajo directo hacia equipos más rápidos y resultados mejores. En parte lo está siendo. El problema es que, en paralelo, se está instalando una sensación incómoda: la confianza en la IA baja incluso cuando su uso crece. Es como comprar un robot de cocina que promete cenas perfectas en 10 minutos y descubrir que, algunas noches, te deja la comida a medio hacer y te obliga a limpiar el doble.

Ese contraste aparece con claridad en un reportaje de ZDNET firmado por Erin Carson: la adopción de IA sube, pero la paciencia de los equipos se agota cuando la herramienta no cumple lo que el marketing sugiere. La consecuencia no es solo frustración; es una pérdida de fe que, con el tiempo, puede convertirse en rechazo silencioso: la gente “cumple” con usar IA, pero deja de confiar en ella para tareas importantes.

Cuando la IA ahorra minutos… y te roba horas

Tabby Farrar, responsable de búsqueda en la agencia británica Candour, pone un ejemplo que suena familiar en muchas oficinas. En ciertos flujos, la IA realmente ahorra tiempo: generar imágenes de producto para clientes que no tienen recursos visuales puede ser un empujón útil. En otros, el coste mental y operativo se dispara: resúmenes ejecutivos que “alucinan” datos o se saltan puntos clave, intentos de clasificar datasets que exigen tanta iteración de prompts que terminas pensando que habría sido más rápido hacerlo a mano.

Esta es la grieta central: la productividad mejora en tareas concretas, pero se resiente cuando la IA exige supervisión continua. Si cada resultado hay que revisarlo como quien corrige un trabajo escolar, el supuesto ahorro se convierte en una factura escondida. Y cuando alguien siente que ha “perdido dos horas” intentando que una herramienta funcione, la tecnología deja de ser una ayuda y pasa a ser un compañero imprevisible.

Los datos: más uso, menos seguridad

Un estudio de enero de ManpowerGroup detectó un giro significativo: por primera vez en tres años, la confianza de los trabajadores en la IA cae, con un descenso del 18%, mientras la adopción crece un 13% interanual. Mara Stefan, vicepresidenta de insights globales en ManpowerGroup, lo resume de forma contundente: una plantilla intimidada o ansiosa no puede rendir al máximo; esa ansiedad se transforma en problemas reales.

La lectura es incómoda para los líderes: no basta con comprar licencias o activar un copiloto en el software corporativo. Si la transformación digital se apoya en herramientas que la gente percibe como frágiles, el efecto puede ser el contrario al deseado: menos foco, más interrupciones, más dudas. El “periodo luna de miel” con la IA se está enfriando.

La brecha entre usar IA y lograr valor real

Otra investigación que encaja con este panorama llega desde EY. Según su informe de noviembre, nueve de cada diez empleados ya usan IA en el trabajo, pero solo el 28% de las organizaciones consigue traducirlo en resultados de alto valor. Dicho de manera llana: hay mucho uso, poca palanca estratégica.

Esto suele ocurrir cuando la IA se introduce como un parche para tareas sueltas, sin rediseñar procesos. Es como poner un motor más potente a una bicicleta sin revisar frenos ni ruedas: se avanza más rápido durante unos minutos, hasta que el sistema muestra sus límites. Si la IA solo “rasca” unas horas aquí y allá, pero no cambia cómo se decide, cómo se valida o cómo se entrega el trabajo, la sensación del equipo es que el esfuerzo no compensa.

El ruido del mercado y la promesa demasiado pulida

Randall Tinfow, CEO de REACHUM, cuenta que dedica unas 20 horas semanales a evaluar herramientas y socios de IA antes de soltarlos en su organización. No es casual. El mercado está saturado de demos perfectas y mensajes grandilocuentes. En el día a día, aparece la letra pequeña: funciones que fallan en casos reales, calidad irregular, limitaciones en tareas concretas como la generación de texto dentro de imágenes.

Tinfow destaca que algunas herramientas sí funcionan muy bien, como Claude Code para desarrolladores, con ahorros de tiempo apreciables. Su enfoque, aun así, refleja un aprendizaje clave: si la empresa no filtra el ruido, lo filtra el trabajador… a base de frustración. Y esa frustración se acumula como polvo bajo la alfombra: no se ve en un dashboard, pero pesa en la moral.

Psicología del cambio: perder la rutina también duele

Kristin Ginn, fundadora de trnsfrmAItn, apunta a una dimensión menos técnica y más humana. La adopción de IA exige reaprender tareas que antes se ejecutaban casi en piloto automático. ManpowerGroup detectó que un 89% de los encuestados se siente cómodo en su rol actual. Esa comodidad no es pereza; es eficacia construida con práctica. Cuando se introduce una herramienta que obliga a pensar cada paso de nuevo, el cerebro lo vive como un sobreesfuerzo.

Imagina a alguien que lleva años conduciendo el mismo coche y, de golpe, le cambian los pedales de sitio. Puede aprender, claro, pero al principio frena tarde, se equivoca, duda. Ese periodo de torpeza transitoria afecta la confianza laboral, incluso si el resultado final puede ser mejor.

Formación, mentoría y contexto: el triángulo que falta

El dato que más explica el descenso de confianza quizá sea el más básico: falta acompañamiento. Más de la mitad de los encuestados por ManpowerGroup (56%) no ha recibido formación reciente y un 57% no tiene acceso a mentoría. Sin guía, la IA se vuelve una caja negra: a veces acierta, a veces no, y el trabajador no entiende por qué.

Aquí la empresa tiene margen de maniobra inmediato. La formación útil no es una sesión genérica de “qué es la IA”, sino práctica contextual: qué tareas sí conviene delegar, cómo escribir prompts que reduzcan ambigüedad, cómo verificar resultados, qué señales indican riesgo de error, cuándo es mejor no usarla. La mentoría, por su parte, reduce el coste emocional: alguien valida dudas, comparte trucos, normaliza el ensayo y error.

Qué están haciendo algunas compañías para recuperar la confianza

En Candour, Farrar describe tácticas que suenan simples, pero atacan el problema real: ajustar expectativas y proteger el tiempo. La empresa reserva margen extra para el aprendizaje, enmarca los experimentos como “test and learn” para bajar la presión y nombra a un “champion” que sigue los avances y filtra qué merece la pena. Su director de marketing lidera sesiones de formación, y ella mantiene check-ins frecuentes, con espacio para reconocer frustraciones sin culpabilizar.

Esta parte importa porque convierte la adopción en un proceso social, no solo tecnológico. Cuando un equipo siente que puede fallar sin castigo mientras aprende, la implementación de IA deja de parecer una imposición y se vuelve una habilidad compartida.

De la herramienta genérica al traje a medida

Otro paso que mejora la percepción es pasar de “IA para todo” a “IA para lo nuestro”. Candour creó un Gemini Gem entrenado con guías de marca y tono de voz, capaz de generar citas que el cliente ajusta y aprueba. El matiz es crucial: no se busca sustituir criterio humano, sino acelerar la primera versión, como quien usa una plantilla para empezar un documento y luego lo personaliza.

La agencia también explora construir herramientas específicas con APIs de compañías como OpenAI. Este enfoque suele funcionar mejor porque reduce fricción: menos prompts interminables, más integración con flujos existentes, más consistencia. Farrar incluso describe un cambio de actitud respecto a imágenes tras el lanzamiento de Nano Banana de Google, señal de que la calidad percibida puede mejorar rápido cuando una tecnología supera cierto umbral práctico.

La confianza como requisito, no como “extra”

El fondo del asunto es sencillo: si un trabajador va a delegar parte de su tarea en una máquina, necesita confiar en que el resultado será, como mínimo, comparable al suyo. Farrar lo expresa de forma directa: si va a apartar trabajo hacia estas herramientas, quiere poder fiarse de que harán un trabajo tan bueno como el que haría ella.

Para las empresas, la pregunta ya no es solo “¿qué herramientas compramos?”, sino “¿cómo diseñamos una adopción que no erosione la seguridad del equipo?”. La IA en empresas funciona mejor cuando se introduce con objetivos claros, formación aplicada, filtros frente al ruido del mercado, y espacios de aprendizaje que no penalicen el error. Si no, la adopción crece por inercia, y la confianza cae por experiencia.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando

El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando

Llevamos más de dos décadas viviendo dentro de un ecosistema digital diseñado en Estados Unidos. Las grandes tecnológicas no solo levantaron las redes sociales dominantes, sino que construyeron a su alrededor un entramado de servicios sin sustitutos reales. Desde Europa llevamos años hablando de soberanía tecnológica y de un posible desenganche —aunque sea parcial—. Cada vez hay más propuestas, pero de momento es más un deseo que realidad. 

Difícil, pero no imposible. Independizarse por completo de la tecnología estadounidense en software es complicado, pero viable. Nuestro compañero Jose lo relataba hace apenas unos días, dejando de lado gigantes como Google, WhatsApp, Amazon, o Instagram. Los cambios dejaban algo clarísimo: Estados Unidos ha copado los grandes pilares del día a día tecnológico:

  • Búsquedas en internet
  • Envío de mensajes
  • Compras online
  • Redes sociales
  • Cuentas de correo
  • Sistemas operativos

La dependencia es total, y asumirla es incómodo. Países como Francia han prohibido a sus funcionarios el uso de plataformas estadounidenses como Zoom y Teams, para impulsar una plataforma  de videoconferencia desarrollada en Francia y bajo el nombre de Visio. El objetivo está claro: reducir dependencia de la tecnología extranjera, minimizar costos y lograr un estándar de comunicación bajo el control legal europeo. 

El caso UpScrolled. Tras el cambio de propiedad de TikTok, que pasó de estar principalmente en manos chinas a estar bajo el regazo de grandes empresas estadounidenses, se disparó el uso de redes sociales como Upscrolled, app fundada por el palestino Issam Hijazi como desafío a las grandes tecnológicas.

Durante la última semana de enero, Upscrolled fue la red social más descargada por encima de Threads, WhatsApp y TikTok en la App Store de Estados Unidos. Un caso paradigmático en el que los propios estadounidenses apuestan por alternativas fuera de su país.

El caso Proton. Aunque menos reciente, el caso Proton es uno de los más ambiciosos en los últimos cinco años. De ser protagonistas tan solo por ProtonMail (cifrado de extremo a extremo por defecto, jurisdicción europea e independencia del modelo Big Tech), a toda una suite con alternativas de calendario, VPN y almacenamiento. 

Según la compañía, sus apps cuentan ya con más de 100 millones de usuarios. Buena cifra, pero alejada de los más de 100 mil millones de usuarios con los que cuentan los servicios de Google. La distancia sigue siendo enorme, y explica por qué el desenganche tecnológico sigue siendo, de momento, más un gesto político y cultural que una realidad cotidiana.

Preparados para lo peor. Recogía Wall Street Journal a finales de enero un escenario protagonizado por aún más tensión. El caso Groenlandia ha sido la llama necesaria para terminar de prender la mecha, y los principales responsables de los sectores estratégicos europeos quieren trasladar tanto sus sistemas como datos a centros locales.

Pensar en un ecosistema de software 100% europeo no parece del todo realista. Pero imaginar un escenario en el que la dependencia no es completa suena algo mejor. 

Imagen | Xataka

En Xataka | Criticamos mucho a la UE con su obsesión por regular a las Big Tech. Hay al menos dos ejemplos que justifican esa obsesión

-
La noticia El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando fue publicada originalmente en Xataka por Ricardo Aguilar .



☞ El artículo completo original de Ricardo Aguilar lo puedes ver aquí