3 de febrero de 2026

La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado

ilustración surrealista sobre la detección de contenido generado por IA con Google SynthID

El término IA slop se está usando para describir un tipo de contenido generado por IA que parece hecho a toda prisa: imágenes y vídeos poco convincentes, repetitivos, diseñados para enganchar clics y reacciones sin aportar gran cosa. Es como la comida ultraprocesada del feed: no siempre sabe bien, pero está formulada para que sigas picando. Un ejemplo citado por la BBC muestra una escena imposible, niños con rasgos incoherentes y detalles anatómicos absurdos, colocados en una situación melodramática que busca likes. Lo sorprendente no es solo que exista, sino que llegue a cifras masivas de interacción sin que mucha gente lo cuestione.

Durante un tiempo, detectar estas piezas era como ver una chapa mal pintada en una puerta de madera: las costuras cantaban. Manos raras, texto ilegible, sombras imposibles. El problema es que la tecnología mejora y la familiaridad también juega en contra. Cuando te acostumbras a que tu timeline sea un bazar, dejas de inspeccionar cada producto antes de comprarlo.

Un estudiante, un hartazgo y una cuenta que encendió la conversación

La historia de Théodore, un estudiante de París que abrió una cuenta en X llamada “Insane AI Slop”, funciona como síntoma de algo más amplio. Según relata la BBC, él empezó a recopilar y ridiculizar este contenido tras toparse con una imagen tan grotesca como viral. Lo que comenzó como una reacción de incredulidad se convirtió en un buzón abarrotado de “hallazgos” enviados por otras personas. Esa dinámica es importante: el IA slop no solo se produce en cadena, también se detecta en cadena, se comenta en cadena y se difunde en cadena.

Théodore observó patrones que se repiten porque “funcionan” en términos de clics: religión, épica militar, historias lacrimógenas con niños, proezas improbables en contextos de pobreza. Es el mismo mecanismo que hace que en una sobremesa familiar se repitan las anécdotas que siempre arrancan risas. Las plataformas premian lo que retiene atención, no lo que es cierto.

La “tercera fase” de las plataformas: más creación, más mezcla, más volumen

El giro no es casual. En declaraciones a inversores recogidas por la BBC, el CEO de Meta, Mark Zuckerberg, describió una “tercera fase” de las redes sociales centrada en la IA, tras una primera etapa dominada por contenido de amigos y una segunda impulsada por creadores. La idea es clara: si la IA hace más fácil crear y remezclar, habrá una avalancha de formatos y publicaciones.

Ese planteamiento viene acompañado de herramientas. Las plataformas no solo permiten el contenido generado por IA, también lo facilitan con filtros, generadores y funciones integradas. En paralelo, el CEO de YouTube, Neal Mohan, escribió en un texto de perspectiva para 2026 que más de un millón de canales habían usado herramientas de IA de la plataforma en un solo mes, un dato que ilustra el tamaño del fenómeno. Mohan reconoce preocupaciones por “contenido de baja calidad”, prometiendo mejoras para detectar y reducir publicaciones repetitivas.

Cuando pones una impresora industrial en mitad de una plaza, la plaza se llena de papel. Parte será útil, parte será basura, parte será propaganda, parte será arte. Lo complicado es decidir quién recoge qué y con qué criterio.

El combustible económico: cuando el engagement paga la factura

Detrás del IA slop hay una lógica de incentivos fácil de entender. Si una pieza consigue reacciones, el sistema la impulsa. Si el creador monetiza por visualizaciones, el estímulo es producir más, más rápido y con el menor coste posible. Un estudio citado por la BBC, realizado por la empresa Kapwing, estimó que una porción relevante de lo que ve una cuenta nueva en YouTube puede encajar en la etiqueta de “baja calidad generada con IA”, con especial presencia en el formato corto.

En ese terreno, la repetición es una estrategia: el mismo tipo de historia con cambios mínimos, el mismo “gancho” emocional, el mismo ritmo. Es como poner una máquina de hacer rosquillas en una feria: no necesitas inventar un postre nuevo cada día si el olor ya atrae a la gente.

La reacción: comentarios furiosos, burlas y un efecto secundario incómodo

La BBC describe una reacción creciente visible en comentarios que denuncian lo artificial, lo engañoso o lo cansino del contenido. En algunos casos, la indignación obtiene más likes que la publicación original. Suena a victoria ciudadana, pero tiene truco: para los algoritmos, una discusión intensa sigue siendo señal de “interés”. La plataforma no distingue entre aplauso y abucheo si ambos mantienen a la audiencia mirando.

Es una paradoja parecida a discutir en voz alta en un restaurante para quejarte del ruido: la queja aumenta el ruido. El enfado se convierte en parte del motor que amplifica el propio fenómeno.

El coste mental: verificar cansa y la paciencia no es infinita

Aquí aparece una preocupación más profunda. Emily Thorson, profesora asociada en la Universidad de Syracuse especializada en desinformación, explica en la BBC que el impacto depende del uso que cada persona le dé a la plataforma. Si buscas entretenimiento, quizá te baste con que “divierta”. Si buscas informarte o conectar con una comunidad, el contenido generado por IA problemático pesa más.

El investigador Alessandro Galeazzi, de la Universidad de Padova, plantea otro ángulo: comprobar si algo es real requiere esfuerzo, y ese esfuerzo sostenido puede erosionarse con el tiempo. Si tu feed se llena de piezas dudosas, el cerebro aprende a rendirse. Es como vivir en una calle con alarmas que suenan cada noche: al principio te asomas a la ventana, al mes ya ni te mueves. Galeazzi menciona el riesgo de “brain rot”, una manera de nombrar la degradación de la atención cuando consumimos mucho contenido rápido, trivial y repetitivo.

Cuando deja de ser “solo raro”: riesgos de desinformación y abuso

El IA slop puede ser simplemente absurdo, como animales con zapatos o escenas imposibles diseñadas para ser compartidas. El problema es que el mismo ecosistema también sirve para contenidos con consecuencias serias. La BBC menciona el caso de Grok, el chatbot de xAI integrado con X, y cómo su uso para “desnudar” digitalmente a mujeres y menores llevó a cambios de normas. Cita también la circulación de vídeos falsos en contextos políticos y de conflicto, capaces de moldear percepciones públicas.

Cuando muchas personas usan redes como principal fuente de noticias, una avalancha de material sintético puede actuar como niebla. No hace falta convencerte de una mentira concreta; basta con que dudes de todo. Y esa duda permanente es un terreno fértil para la manipulación.

Moderación en retroceso y una idea que gana fuerza: probar lo real en lugar de perseguir lo falso

Una pieza clave del rompecabezas es la moderación. Según la BBC, varias plataformas han recortado equipos y han desplazado parte del control hacia sistemas comunitarios, con usuarios etiquetando lo engañoso. Esa estrategia tropieza con un límite: si el volumen crece y la calidad media baja, la comunidad se agota.

El CEO de OpenOrigins, Manny Ahmed, plantea en la BBC una propuesta que suena cada vez más razonable: dejar de centrarnos solo en detectar lo falso y construir infraestructura para demostrar el origen de lo real. En términos cotidianos, sería como pasar de perseguir billetes falsos a exigir una marca de agua verificable en los billetes auténticos. Si un vídeo pudiera acreditar su procedencia, cuándo se grabó, con qué dispositivo, si se editó y cómo, el debate no dependería tanto del “ojo” del espectador.

Eso no eliminaría el IA slop, pero podría separar con más claridad el contenido documental del contenido sintético, algo crucial cuando la línea entre entretenimiento y noticia se difumina.

¿Habrá redes “sin slop” o ya es parte del paisaje digital?

La idea de una plataforma alternativa “limpia” suena tentadora. La BBC recuerda el caso de BeReal, que empujó la autenticidad como propuesta y obligó a gigantes a tomar nota. El desafío es que la detección automática se vuelve más difícil a medida que la IA mejora, y definir “slop” tiene un componente subjetivo. Lo que para una persona es basura, para otra es un gag.

Quizá el futuro no sea un internet libre de IA slop, sino un internet con mejores señales: etiquetados fiables, herramientas para filtrar, sistemas de procedencia, incentivos económicos menos dependientes de la indignación, y alfabetización visual para que no nos vendan gato por liebre. Théodore, según la BBC, parece resignado: no está en contra de la IA, está en contra de la contaminación del espacio social por contenido hecho para rascar atención.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada

Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada

¿Alguna vez te has preguntado quién fue la persona más antigua jamás fotografiada? No hablamos de la primera fotografía de la historia que el ser humano fue capaz de hacer, que también es un tema muy interesante, sino aquella en la que aparece la persona nacida antes que ninguna otra que haya sido inmortalizada jamás en una foto.

No es tarea sencilla dar una respuesta tajante y rotunda, puesto que es difícil rastrear la pista de personas nacidas a finales del siglo XVIII, pero sí existe cierto consenso alrededor de algunos nombres. Quién sabe, quizás dentro de unos años descubramos una nueva fotografía que nos vuelva a sorprender como lo han hecho las que tenemos entre manos. Sea como fuere, el tema es tan apasionante como parece.

Conrad Heyer y John Adams

Según la información ofrecida por la Maine Historical Society, la persona más antigua jamás fotografiada fue Conrad Heyer. Se trataba un veterano de la Guerra de Independencia de los Estados Unidos cuya fecha de nacimiento data de 1749. La siguiente foto de Heyer se estima que fue tomada en el año 1852, cuatro años antes de su fallecimiento. Sí, aquí tenía 103 años. Y sí, resulta alucinante poder ver una fotografía de alguien nacido a mediados del siglo XVIII.

La foto es sencillamente impresionante, tanto a nivel de composición como por esa mirada firme y casi desafiante de Heyer. Se hizo usando el daguerrotipo, un procedimiento fotográfico que fue dado a conocer públicamente en París en 1839 y que posteriormente fue utilizado durante años a lo largo y ancho del planeta. También en España, claro, donde se realizaron daguerrotipos desde 1839 hasta 1860.

Pero volviendo al tema que nos ocupa, ¿fue Conrad Heyer la persona más antigua jamás fotografiada? Es lo que figura en los datos ofrecidos por la Maine Historical Society, como hemos visto, pero por otro lado la Susquehanna County Historical Society dispone de la copia de una fotografía de un tal John Adams. Zapatero de profesión, habría nacido en Worcester unos años antes que Heyer, concretamente el 22 de enero de 1745:

heyer Conrad Heyer, nacido en el siglo XVIII, muy contento de posar para la posteridad, como se aprecia.
Joh John Adams, también emocionadísimo.

De nuevo se trata de un daguerrotipo, aunque en este caso no se sabe a ciencia cierta en qué año se hizo la foto (el original no ha sido encontrado). Con los datos de que disponemos, lo que sí sabemos es que tuvo que ser tomada en algún momento entre 1839 y 1849, año en que Adams falleció a los 104 años. Heyer y Adams gozaron de una vida de más de un siglo. Y por lo que vemos en las fotos, cabe decir que no se conservaban nada mal.

Hay al menos otro par de personas que podrían disputarle el honor de haber sido la persona más antigua jamás fotografiada a Heyer y Adams, aunque la documentación es algo confusa y no son casos tan claros como los anteriores.

El primero de ellos es Baltus Stone, otro veterano de la Guerra de Independencia como Heyer. Su fecha de nacimiento podría haber sido en 1744 según el manuscrito que acompañaba a un daguerrotipo de 1846, pero en otros documentos se da a entender que podría haber nacido en 1743, en 1747 o en 1754. Demasiado baile de fechas.

Por otro lado, la New York Historical Society tiene en su poder un daguerrotipo tomado en 1851 de un esclavo llamado Caesar que, a juzgar por la información que aparece en el reverso del marco, nació en 1737 en Bethlehem (Nueva York), y falleció en 1852. De ser esto cierto no sólo tendríamos un claro ganador, sino que Caesar tendría 114 años en la foto. Sí, viendo la imagen resulta un poco complicado dar por buenos estos datos:

Otro El mismísimo Baltus Stone.

La propia New York Historical Society le confirmó a Benjamin S. Beck en una conversación privada que la fecha de nacimiento de Caesar no podía ser totalmente confirmada. El único registro público que puede arrojar algo de luz al respecto es una entrada del 7 de agosto de 1850 en el censo de la población de Bethlehem donde figura un tal Cesar Nicholls de 110 años de edad (nació como esclavo de un tal Van Rensselaer Nicoll).

Llegan los veteranos de las Guerras Napoleónicas

Además de los daguerrotipos de John Adams y Conrad Heyer, que bien podrían ser las dos personas más antiguas jamás fotografiadas, no podemos olvidarnos de la colección de fotos sobre los veteranos de las Guerras Napoleónicas propiedad de Anne Seddon Kinsolving Brown. Aunque no se sabe a ciencia cierta cómo consiguió estas fotografías la Sra. Brown, la historia de las mismas es apasionante.

soldado1
soldado2
soldado3
soldado4
soldado5

Tras la muerte de Napoleón en 1821, los veteranos de la Grande Armée y la Guardia que sobrevivieron a las Guerras Napoleónicas marcharon uniformados cada 5 de mayo hacia la Plaza Vendôme de París para presentar sus respetos al emperador caído. Las fotografías de la colección de la Sra. Brown se tomaron alrededor del año 1858, ya que los veteranos que aparecen en ellas llevaban la medalla de Santa Helena otorgada a todos ellos en agosto de 1857. Son las únicas fotos que quedan de estos soldados llevando sus uniformes e insignias originales.

Todos estos veteranos tenían alrededor de 70 u 80 años en el momento de ser fotografiados. Es decir, todos ellos nacieron a finales del siglo XVIII y, por lo tanto, forman parte del grupo de personas nacidas antes de 1800 que fueron fotografiadas.

Imágenes | Brown University Library

En Xataka | Qué fue de Technicolor: evolución y muerte de la empresa que cambió el cine y fue arrollada por su ambición

En Xataka | El primer meme fotográfico de la historia era extremadamente macabro: posar como cadáveres decapitados

-
La noticia Nació en 1749 y tenemos una fotografía suya: la fascinante búsqueda de la persona más antigua jamás fotogafiada fue publicada originalmente en Xataka por Alex C .



☞ El artículo completo original de Alex C lo puedes ver aquí

La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas

ai_boom_image

Durante meses, muchas compañías han hablado de la inteligencia artificial como si fuera un atajo directo hacia equipos más rápidos y resultados mejores. En parte lo está siendo. El problema es que, en paralelo, se está instalando una sensación incómoda: la confianza en la IA baja incluso cuando su uso crece. Es como comprar un robot de cocina que promete cenas perfectas en 10 minutos y descubrir que, algunas noches, te deja la comida a medio hacer y te obliga a limpiar el doble.

Ese contraste aparece con claridad en un reportaje de ZDNET firmado por Erin Carson: la adopción de IA sube, pero la paciencia de los equipos se agota cuando la herramienta no cumple lo que el marketing sugiere. La consecuencia no es solo frustración; es una pérdida de fe que, con el tiempo, puede convertirse en rechazo silencioso: la gente “cumple” con usar IA, pero deja de confiar en ella para tareas importantes.

Cuando la IA ahorra minutos… y te roba horas

Tabby Farrar, responsable de búsqueda en la agencia británica Candour, pone un ejemplo que suena familiar en muchas oficinas. En ciertos flujos, la IA realmente ahorra tiempo: generar imágenes de producto para clientes que no tienen recursos visuales puede ser un empujón útil. En otros, el coste mental y operativo se dispara: resúmenes ejecutivos que “alucinan” datos o se saltan puntos clave, intentos de clasificar datasets que exigen tanta iteración de prompts que terminas pensando que habría sido más rápido hacerlo a mano.

Esta es la grieta central: la productividad mejora en tareas concretas, pero se resiente cuando la IA exige supervisión continua. Si cada resultado hay que revisarlo como quien corrige un trabajo escolar, el supuesto ahorro se convierte en una factura escondida. Y cuando alguien siente que ha “perdido dos horas” intentando que una herramienta funcione, la tecnología deja de ser una ayuda y pasa a ser un compañero imprevisible.

Los datos: más uso, menos seguridad

Un estudio de enero de ManpowerGroup detectó un giro significativo: por primera vez en tres años, la confianza de los trabajadores en la IA cae, con un descenso del 18%, mientras la adopción crece un 13% interanual. Mara Stefan, vicepresidenta de insights globales en ManpowerGroup, lo resume de forma contundente: una plantilla intimidada o ansiosa no puede rendir al máximo; esa ansiedad se transforma en problemas reales.

La lectura es incómoda para los líderes: no basta con comprar licencias o activar un copiloto en el software corporativo. Si la transformación digital se apoya en herramientas que la gente percibe como frágiles, el efecto puede ser el contrario al deseado: menos foco, más interrupciones, más dudas. El “periodo luna de miel” con la IA se está enfriando.

La brecha entre usar IA y lograr valor real

Otra investigación que encaja con este panorama llega desde EY. Según su informe de noviembre, nueve de cada diez empleados ya usan IA en el trabajo, pero solo el 28% de las organizaciones consigue traducirlo en resultados de alto valor. Dicho de manera llana: hay mucho uso, poca palanca estratégica.

Esto suele ocurrir cuando la IA se introduce como un parche para tareas sueltas, sin rediseñar procesos. Es como poner un motor más potente a una bicicleta sin revisar frenos ni ruedas: se avanza más rápido durante unos minutos, hasta que el sistema muestra sus límites. Si la IA solo “rasca” unas horas aquí y allá, pero no cambia cómo se decide, cómo se valida o cómo se entrega el trabajo, la sensación del equipo es que el esfuerzo no compensa.

El ruido del mercado y la promesa demasiado pulida

Randall Tinfow, CEO de REACHUM, cuenta que dedica unas 20 horas semanales a evaluar herramientas y socios de IA antes de soltarlos en su organización. No es casual. El mercado está saturado de demos perfectas y mensajes grandilocuentes. En el día a día, aparece la letra pequeña: funciones que fallan en casos reales, calidad irregular, limitaciones en tareas concretas como la generación de texto dentro de imágenes.

Tinfow destaca que algunas herramientas sí funcionan muy bien, como Claude Code para desarrolladores, con ahorros de tiempo apreciables. Su enfoque, aun así, refleja un aprendizaje clave: si la empresa no filtra el ruido, lo filtra el trabajador… a base de frustración. Y esa frustración se acumula como polvo bajo la alfombra: no se ve en un dashboard, pero pesa en la moral.

Psicología del cambio: perder la rutina también duele

Kristin Ginn, fundadora de trnsfrmAItn, apunta a una dimensión menos técnica y más humana. La adopción de IA exige reaprender tareas que antes se ejecutaban casi en piloto automático. ManpowerGroup detectó que un 89% de los encuestados se siente cómodo en su rol actual. Esa comodidad no es pereza; es eficacia construida con práctica. Cuando se introduce una herramienta que obliga a pensar cada paso de nuevo, el cerebro lo vive como un sobreesfuerzo.

Imagina a alguien que lleva años conduciendo el mismo coche y, de golpe, le cambian los pedales de sitio. Puede aprender, claro, pero al principio frena tarde, se equivoca, duda. Ese periodo de torpeza transitoria afecta la confianza laboral, incluso si el resultado final puede ser mejor.

Formación, mentoría y contexto: el triángulo que falta

El dato que más explica el descenso de confianza quizá sea el más básico: falta acompañamiento. Más de la mitad de los encuestados por ManpowerGroup (56%) no ha recibido formación reciente y un 57% no tiene acceso a mentoría. Sin guía, la IA se vuelve una caja negra: a veces acierta, a veces no, y el trabajador no entiende por qué.

Aquí la empresa tiene margen de maniobra inmediato. La formación útil no es una sesión genérica de “qué es la IA”, sino práctica contextual: qué tareas sí conviene delegar, cómo escribir prompts que reduzcan ambigüedad, cómo verificar resultados, qué señales indican riesgo de error, cuándo es mejor no usarla. La mentoría, por su parte, reduce el coste emocional: alguien valida dudas, comparte trucos, normaliza el ensayo y error.

Qué están haciendo algunas compañías para recuperar la confianza

En Candour, Farrar describe tácticas que suenan simples, pero atacan el problema real: ajustar expectativas y proteger el tiempo. La empresa reserva margen extra para el aprendizaje, enmarca los experimentos como “test and learn” para bajar la presión y nombra a un “champion” que sigue los avances y filtra qué merece la pena. Su director de marketing lidera sesiones de formación, y ella mantiene check-ins frecuentes, con espacio para reconocer frustraciones sin culpabilizar.

Esta parte importa porque convierte la adopción en un proceso social, no solo tecnológico. Cuando un equipo siente que puede fallar sin castigo mientras aprende, la implementación de IA deja de parecer una imposición y se vuelve una habilidad compartida.

De la herramienta genérica al traje a medida

Otro paso que mejora la percepción es pasar de “IA para todo” a “IA para lo nuestro”. Candour creó un Gemini Gem entrenado con guías de marca y tono de voz, capaz de generar citas que el cliente ajusta y aprueba. El matiz es crucial: no se busca sustituir criterio humano, sino acelerar la primera versión, como quien usa una plantilla para empezar un documento y luego lo personaliza.

La agencia también explora construir herramientas específicas con APIs de compañías como OpenAI. Este enfoque suele funcionar mejor porque reduce fricción: menos prompts interminables, más integración con flujos existentes, más consistencia. Farrar incluso describe un cambio de actitud respecto a imágenes tras el lanzamiento de Nano Banana de Google, señal de que la calidad percibida puede mejorar rápido cuando una tecnología supera cierto umbral práctico.

La confianza como requisito, no como “extra”

El fondo del asunto es sencillo: si un trabajador va a delegar parte de su tarea en una máquina, necesita confiar en que el resultado será, como mínimo, comparable al suyo. Farrar lo expresa de forma directa: si va a apartar trabajo hacia estas herramientas, quiere poder fiarse de que harán un trabajo tan bueno como el que haría ella.

Para las empresas, la pregunta ya no es solo “¿qué herramientas compramos?”, sino “¿cómo diseñamos una adopción que no erosione la seguridad del equipo?”. La IA en empresas funciona mejor cuando se introduce con objetivos claros, formación aplicada, filtros frente al ruido del mercado, y espacios de aprendizaje que no penalicen el error. Si no, la adopción crece por inercia, y la confianza cae por experiencia.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando

El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando

Llevamos más de dos décadas viviendo dentro de un ecosistema digital diseñado en Estados Unidos. Las grandes tecnológicas no solo levantaron las redes sociales dominantes, sino que construyeron a su alrededor un entramado de servicios sin sustitutos reales. Desde Europa llevamos años hablando de soberanía tecnológica y de un posible desenganche —aunque sea parcial—. Cada vez hay más propuestas, pero de momento es más un deseo que realidad. 

Difícil, pero no imposible. Independizarse por completo de la tecnología estadounidense en software es complicado, pero viable. Nuestro compañero Jose lo relataba hace apenas unos días, dejando de lado gigantes como Google, WhatsApp, Amazon, o Instagram. Los cambios dejaban algo clarísimo: Estados Unidos ha copado los grandes pilares del día a día tecnológico:

  • Búsquedas en internet
  • Envío de mensajes
  • Compras online
  • Redes sociales
  • Cuentas de correo
  • Sistemas operativos

La dependencia es total, y asumirla es incómodo. Países como Francia han prohibido a sus funcionarios el uso de plataformas estadounidenses como Zoom y Teams, para impulsar una plataforma  de videoconferencia desarrollada en Francia y bajo el nombre de Visio. El objetivo está claro: reducir dependencia de la tecnología extranjera, minimizar costos y lograr un estándar de comunicación bajo el control legal europeo. 

El caso UpScrolled. Tras el cambio de propiedad de TikTok, que pasó de estar principalmente en manos chinas a estar bajo el regazo de grandes empresas estadounidenses, se disparó el uso de redes sociales como Upscrolled, app fundada por el palestino Issam Hijazi como desafío a las grandes tecnológicas.

Durante la última semana de enero, Upscrolled fue la red social más descargada por encima de Threads, WhatsApp y TikTok en la App Store de Estados Unidos. Un caso paradigmático en el que los propios estadounidenses apuestan por alternativas fuera de su país.

El caso Proton. Aunque menos reciente, el caso Proton es uno de los más ambiciosos en los últimos cinco años. De ser protagonistas tan solo por ProtonMail (cifrado de extremo a extremo por defecto, jurisdicción europea e independencia del modelo Big Tech), a toda una suite con alternativas de calendario, VPN y almacenamiento. 

Según la compañía, sus apps cuentan ya con más de 100 millones de usuarios. Buena cifra, pero alejada de los más de 100 mil millones de usuarios con los que cuentan los servicios de Google. La distancia sigue siendo enorme, y explica por qué el desenganche tecnológico sigue siendo, de momento, más un gesto político y cultural que una realidad cotidiana.

Preparados para lo peor. Recogía Wall Street Journal a finales de enero un escenario protagonizado por aún más tensión. El caso Groenlandia ha sido la llama necesaria para terminar de prender la mecha, y los principales responsables de los sectores estratégicos europeos quieren trasladar tanto sus sistemas como datos a centros locales.

Pensar en un ecosistema de software 100% europeo no parece del todo realista. Pero imaginar un escenario en el que la dependencia no es completa suena algo mejor. 

Imagen | Xataka

En Xataka | Criticamos mucho a la UE con su obsesión por regular a las Big Tech. Hay al menos dos ejemplos que justifican esa obsesión

-
La noticia El mundo llevaba 25 años enamorado de la tecnología de EEUU. Por fin nos estamos desenganchando fue publicada originalmente en Xataka por Ricardo Aguilar .



☞ El artículo completo original de Ricardo Aguilar lo puedes ver aquí

¿Tiene la Gran Pirámide 25.000 años?

En enero de 2026, una afirmación tan provocadora como desconcertante ha empezado a circular por medios y redes: la Gran Pirámide de Guiza no tendría unos 4.500 años de antigüedad, sino que podría haber sido construida hace alrededor de 25.000 años. La propuesta, firmada por el ingeniero italiano Alberto Donini, desplaza el origen del monumento desde el Egipto faraónico hasta el Paleolítico Superior, una época en la que, según el conocimiento arqueológico actual, las sociedades humanas eran nómadas y utilizaban herramientas de piedra. El contraste entre la magnitud de la afirmación y lo que sabemos sobre ese periodo histórico explica por qué el estudio ha despertado tanto interés como escepticismo.

La propuesta viene envuelta en un aparente rigor científico. Donini, doctor en ingeniería de la Universidad de Bolonia, presentó su trabajo en la plataforma Zenodo utilizando algo que él llama el «Método de Erosión Relativa» o REM por sus siglas en inglés. La idea, en teoría, es bastante directa: la piedra se desgasta con el tiempo por la lluvia, el viento, los cambios de temperatura y demás agentes naturales. Si mides cuánto se ha erosionado una superficie rocosa, deberías poder calcular cuánto tiempo lleva expuesta a la intemperie. Donini aprovechó un evento histórico conveniente: en 1303, tras un terremoto, los mamelucos retiraron el revestimiento de piedra caliza blanca que cubría la pirámide para reciclarla en construcciones de El Cairo. Esto significa que algunas partes de la base de la pirámide solo llevan expuestas unos 675 años, mientras que otras han estado a la intemperie desde que se construyó el monumento.

El plan era simple: comparar el desgaste de ambas superficies y, conociendo que una ha estado protegida hasta 1303, calcular la antigüedad de la otra. Donini tomó mediciones en doce puntos diferentes de la base, cuantificando el volumen de material perdido en pequeñas cavidades erosionadas y la reducción de espesor en zonas con desgaste uniforme. Y aquí es donde la cosa se pone interesante, o más bien caótica. Los resultados fueron de lo más variopinto: un punto sugería unos 5.700 años de antigüedad, relativamente cerca de lo esperado, pero otros arrojaban cifras de 30.000, 45.000 e incluso 54.000 años. Al promediar todo esto, Donini llegó a su cifra estrella: aproximadamente 25.000 años, situando la construcción de la pirámide hacia el 22.916 antes de Cristo, en pleno Paleolítico Superior.

Ahora bien, si te estás preguntando cómo es posible que las mediciones varíen tanto entre puntos que están en la misma estructura, no eres el único. El propio Donini reconoce que múltiples variables afectan la erosión: la orientación de la piedra, el microclima local, las características específicas de cada roca. Pero es que el problema va mucho más allá de esa dispersión de datos. Para que el método funcione, necesitas asumir que la tasa de erosión ha sido más o menos constante durante todo ese tiempo. Y aquí es donde el castillo de naipes empieza a tambalearse.

Resulta que el clima de Egipto no ha sido el mismo durante los últimos 25.000 años. Al final de la última glaciación, la región era considerablemente más húmeda, con lluvias frecuentes que habrían acelerado la erosión química de la caliza. Por el contrario, en tiempos modernos tenemos factores que los constructores originales jamás imaginaron: la contaminación atmosférica y la lluvia ácida han incrementado la corrosión química, y el turismo masivo, con miles de personas pisoteando la meseta de Guiza cada día, ha causado un desgaste mecánico que no tiene parangón histórico. Es como intentar calcular la edad de un coche por el desgaste de los neumáticos sin saber si ha circulado por autopista, por caminos de montaña o si pasó veinte años guardado en un garaje.

Y aún hay más complicaciones. La meseta de Guiza ha experimentado periodos de enterramiento parcial bajo arena del desierto a lo largo de milenios. Capas de arena que cubrían y protegían la piedra durante siglos, reduciendo temporalmente la erosión. Además, la caliza no es un material homogéneo; variaciones locales en dureza, composición o fisuras hacen que unas zonas se erosionen más rápido que otras bajo exactamente las mismas condiciones. Intentar modelar matemáticamente todo esto sobre una escala temporal de 20.000 a 40.000 años implica un número de supuestos que hacen parecer simple el cálculo de tu declaración de la renta.

Pero dejemos de lado por un momento los problemas metodológicos y pensemos en las implicaciones. Si Donini tuviera razón, estaríamos ante una civilización capaz de ingeniería monumental en el año 23.000 antes de Cristo, una época en la que, según todo lo que sabemos, los humanos vivían en pequeños grupos nómadas o semi-nómadas, con herramientas de piedra y sin rastro alguno de organización social necesaria para construir semejante maravilla arquitectónica. No estamos hablando de un pequeño ajuste en las fechas, sino de reescribir completamente la historia de la humanidad.

Y aquí viene el detalle incómodo: tenemos montañas de evidencia que sitúan la Gran Pirámide exactamente donde los egiptólogos dicen que está, en el reinado de Keops, hacia el 2560 antes de Cristo. No es una datación basada en un solo indicio caprichoso, sino en una convergencia de múltiples líneas de investigación. Se han encontrado cerámicas típicas de la IV dinastía, herramientas de cobre y dolerita usadas en la construcción, grafitis con los nombres de los equipos de obreros de Keops en el interior de la propia pirámide. La arquitectura encaja perfectamente en una secuencia evolutiva que va desde las mastabas a la pirámide escalonada de Djoser y luego a las pirámides de caras lisas. Además, múltiples análisis de Carbono-14 en materiales orgánicos asociados a la construcción, restos de carbón, semillas y cuerdas de los campamentos de obreros, todos apuntan consistentemente al periodo 2600-2500 antes de Cristo.

Como explicaba el arqueólogo Mark Lehner, las pirámides se datan principalmente según su posición dentro del desarrollo de la arquitectura y la cultura material egipcias a lo largo de 3.000 años, es decir, por cómo encajan en una secuencia estilística y tecnológica bien establecida. Y la Gran Pirámide encaja perfectamente. Donini sugiere que Keops no fue el constructor original sino un «restaurador» que renovó una estructura milenaria y se atribuyó su autoría. Pero esto deja sin explicar cómo los egipcios del 2500 a.C. pudieron replicar técnicamente habilidades similares en todas las demás pirámides de su época, o por qué no existe ningún registro, ninguna leyenda, ninguna mención en miles de textos egipcios sobre esa supuesta civilización anterior que habría sido capaz de tal proeza.

La comunidad científica ha recibido el estudio con el entusiasmo de un profesor de instituto corrigiendo exámenes un viernes por la tarde. Se aplaude la creatividad de intentar un enfoque diferente, pero la conclusión se considera altamente especulativa. El trabajo de Donini es un informe preliminar auto-publicado que no ha pasado por revisión de pares, nadie ha verificado independientemente sus mediciones, y nadie ha reproducido el método. En ciencia, cuando alguien presenta una afirmación extraordinaria, la carga de la prueba es extraordinaria también. No basta con un cálculo promedio de doce mediciones dispersas para echar abajo décadas de investigación arqueológica, geológica y radiométrica.

Hay quien compara esta situación con la vieja controversia de la Esfinge de Guiza, cuando en 1992 el geólogo Robert Schoch argumentó que podría ser miles de años más antigua basándose en patrones de erosión hídrica. La propuesta generó titulares, debates acalorados y finalmente quedó fuera del consenso académico por falta de evidencias contextuales que la respaldaran. La historia parece repetirse ahora con la Gran Pirámide, y los egiptólogos temen que el público general dé crédito inmediato a una idea atractiva sin exigir las pruebas necesarias.

Porque seamos honestos: la idea de una civilización perdida y avanzada construyendo pirámides en la prehistoria es infinitamente más emocionante que la explicación convencional de faraones organizando trabajadores con cuerdas y rampas. Es el material perfecto para documentales de medianoche y teorías conspirativas en internet. Pero la emoción no es evidencia, y el misterio no es argumento.

El propio Donini, hay que reconocerlo, es más cauto en su informe de lo que algunos titulares sensacionalistas sugieren. Reconoce que su método no provee una fecha exacta sino un orden de magnitud orientativo, y que los resultados requieren más mediciones, afinamiento de la metodología y verificación independiente. Califica su trabajo como preliminar. El problema es que esa cautela tiende a perderse cuando la historia salta de las plataformas académicas a los medios generalistas, donde «podría ser mucho más antigua» se convierte rápidamente en «es definitivamente 20.000 años más antigua».

¿Significa esto que debemos descartar completamente el método de erosión como herramienta de datación? No necesariamente. Quizá con calibración adecuada, con estudios de control en estructuras de edad conocida, con modelos climáticos más sofisticados y con múltiples equipos independientes replicando las mediciones, algo útil podría surgir de esta idea. Pero estamos muy, muy lejos de ese punto. Por ahora, lo que tenemos es un ejercicio interesante que plantea más preguntas metodológicas de las que responde, y que choca frontalmente con todo lo que sabemos sobre la historia antigua.

La Gran Pirámide seguirá siendo objeto de fascinación y estudio. Es uno de los monumentos más emblemáticos de la humanidad y merece todo el escrutinio científico posible. Pero mientras no aparezcan evidencias extraordinarias que respalden esta datación radical, la pirámide continuará firmemente anclada donde la egiptología la ha situado: en el siglo XXVI antes de Cristo, como tumba del faraón Keops, construida por una civilización que, aunque antigua, es muy real y está muy bien documentada. No necesitamos inventar civilizaciones perdidas cuando tenemos una real frente a nuestros ojos, con sus logros, sus limitaciones y su increíble capacidad para dejar boquiabierta a la humanidad más de 4.500 años después.



☞ El artículo completo original de lo puedes ver aquí