4 de enero de 2026

Señales alentadoras en el clima de 2025: cuatro pistas de que la transición sigue viva

image1_climate_progress

2025 ha sido uno de esos años en los que el termómetro y las noticias parecen ponerse de acuerdo para incomodar. Las emisiones globales de gases de efecto invernadero volvieron a marcar máximos y la temperatura media del planeta se colocó entre las más altas registradas. A la vez, los impactos han sido muy concretos: incendios, inundaciones y daños millonarios que no se quedan en gráficos, sino en casas perdidas, negocios cerrados y comunidades enteras rehaciendo su vida.

El contexto político tampoco ayudó. En Estados Unidos, el giro de la administración Trump se notó en decisiones que, según la propia cobertura internacional, incluyeron la salida del Acuerdo de París, recortes a la investigación climática y la cancelación de apoyos a proyectos de tecnología climática. Cuando la economía más grande del mundo frena, el resto lo siente, como cuando en un edificio alguien apaga el ascensor: todos siguen subiendo, pero cuesta más.

Con ese panorama, conviene agarrarse a lo que sí se movió en la dirección correcta. No para maquillarlo, sino para entender qué engranajes están funcionando y dónde se podría acelerar.

China y el raro “desacople” entre crecimiento y contaminación

Una de las señales más llamativas de 2025 llega desde China, que suele aparecer en titulares por ser el mayor emisor y, al mismo tiempo, la mayor fábrica de tecnologías limpias. Un análisis de Carbon Brief indica que el país ha mantenido prácticamente planas sus emisiones de CO₂ durante alrededor de un año y medio, y con indicios de descenso, algo que en el pasado solo ocurría cuando la economía se enfriaba.

La diferencia es que ahora el crecimiento económico sigue. Si durante décadas el vínculo fue casi automático —más actividad industrial equivalía a más carbón quemado—, en 2025 se ve un intento real de separar ambas cosas. La explicación se parece a cambiar la cocina de gas por una de inducción: puedes preparar la misma cena, incluso más rápido, sin llenar la casa de humo.

Los números ayudan a entender el cambio de escala. En los primeros nueve meses del año, China incorporó del orden de 240 gigavatios de capacidad solar y unos 61 gigavatios de eólica, según el mismo análisis de Carbon Brief. Son cantidades tan grandes que dejan de sonar a “proyecto” y pasan a sonar a infraestructura nacional, como carreteras o redes de agua. A eso se suma la expansión de vehículos eléctricos, que reduce la demanda de combustibles fósiles en el transporte y empuja una electrificación más limpia si la red se vuelve renovable.

Esto no convierte a China en “caso resuelto”. El propio debate climático recuerda que el ritmo global aún no encaja con trayectorias de calentamiento consideradas seguras. China ha dicho que espera alcanzar su pico de emisiones antes de 2030, y 2025 sugiere que el pico podría acercarse, pero aún no es una meta conquistada. Lo valioso es la evidencia práctica: una economía industrial puede crecer sin que sus emisiones suban al mismo ritmo, algo que muchos países quieren imitar sin renunciar a prosperidad.

Baterías en la red: el “amortiguador” que evita tirar de gas por inercia

Si las renovables son como cocinar con ingredientes frescos, las baterías de almacenamiento son la nevera que evita el desperdicio. El problema clásico de la energía solar y la energía eólica no es que falten, sino que no siempre coinciden con la hora en la que más se necesita electricidad. Ahí entra el almacenamiento: cargar cuando hay abundancia y descargar cuando la demanda aprieta.

En 2025, el despliegue de baterías conectadas a la red eléctrica en Estados Unidos avanzó a una velocidad difícil de comparar con la década anterior. La industria había marcado hace años un objetivo ambicioso para 2035 y lo superó alrededor de una década antes, pasando posteriormente el umbral de los 40 gigavatios instalados. Es el tipo de curva que recuerda a cuando los móviles dejaron de ser un lujo y, de repente, todo el mundo tenía uno.

La economía del asunto también está empujando. Datos de BloombergNEF señalan que los precios de las baterías siguieron bajando y alcanzaron mínimos históricos, con caídas particularmente acusadas en los paquetes destinados a almacenamiento estacionario. Cuando el precio cae, no solo se venden más unidades; se abren usos que antes no cuadraban en una hoja de cálculo.

Lo interesante es que ya se observan efectos en redes complejas. En lugares como California y Texas, donde la penetración de baterías ha crecido, estas instalaciones están ayudando a cubrir la demanda al atardecer, justo cuando la solar se desploma y, tradicionalmente, entraban centrales de gas para “salvar” el pico. Menos gas en ese tramo significa electricidad más limpia y un sistema más estable. Para el consumidor, esto puede traducirse en menos volatilidad y, con el tiempo, en una red que se comporta más como un buen conductor: anticipa frenadas y acelerones sin sacudidas.

La inteligencia artificial empuja inversión en energía “firme”

La inteligencia artificial tiene una relación ambivalente con el clima. Por un lado, el auge de los centros de datos está disparando la demanda eléctrica. Por otro, ese apetito energético está llevando a gigantes tecnológicos a buscar fuentes de electricidad que funcionen de forma constante, las 24 horas, sin depender del sol o del viento. Es como montar una panadería que no puede cerrar: necesitas un horno que no falle cuando el barrio se llena.

Según la cobertura de 2025, la electricidad suministrada a centros de datos en Estados Unidos subió con fuerza y las proyecciones apuntan a que esa demanda seguirá creciendo hasta 2030. En el corto plazo, parte de la respuesta puede venir de nuevas plantas de gas, con el riesgo que eso implica para emisiones. Aun así, aparece un “efecto secundario” interesante: las compañías que se han comprometido a reducir su huella están poniendo dinero y reputación en tecnologías de generación constante con bajas emisiones.

Aquí entran la geotermia y la energía nuclear. En 2025 se conocieron acuerdos que ilustran esa apuesta. Meta firmó un pacto con XGS Energy para adquirir hasta 150 megavatios de electricidad de una planta geotérmica, mientras Google cerró un acuerdo orientado a facilitar la reapertura del Duane Arnold Energy Center en Iowa, una central nuclear que había cerrado. Estos movimientos, recogidos por la prensa especializada, no garantizan por sí solos un futuro limpio, pero cambian el tablero: cuando actores con músculo financiero se implican, aceleran permisos, cadenas de suministro y aprendizaje industrial.

Para la transición energética, esto importa por un motivo sencillo: incluso con mucha solar y eólica, se necesita una base que sostenga la red en noches largas, olas de calor o semanas con poco viento. La “energía firme” actúa como el esqueleto; las renovables, como los músculos. Si el esqueleto es fósil, el cuerpo no corre hacia una descarbonización real.

Un grado menos de peligro: lo que ya se ha conseguido evitar

Entre tantas curvas ascendentes, hay una lectura que suele pasar desapercibida porque no genera un titular dramático: el mundo ya se alejó de algunos de los escenarios más temidos hace una década. El grupo Climate Action Tracker, que sigue el progreso de políticas climáticas, estima que la trayectoria actual llevaría a alrededor de 2,6 °C de calentamiento para 2100. Es demasiado, con impactos serios, pero está por debajo de rutas cercanas a 3,6 °C que se manejaban antes de que casi 200 países firmaran el Acuerdo de París.

La diferencia de un grado puede sonar pequeña en una conversación cotidiana, pero en clima es como comparar una fiebre de 38 con una de 39: el cuerpo lo nota, y los riesgos cambian. Haber “recortado” parte del peligro sugiere que las políticas, las inversiones y la innovación tecnológica sí mueven la aguja.

El matiz incómodo es que esa mejora se ha estancado en los últimos años. Climate Action Tracker apunta que las proyecciones llevan varios años casi inmóviles, señal de que falta una nueva ola de acción para acercarse al objetivo de 2 °C planteado internacionalmente. La base técnica existe en forma de energías renovables, baterías y electrificación; lo que falta es convertir ese catálogo en despliegue masivo, con normas, incentivos y planificación que aguanten los vaivenes políticos.

Lo que estas señales significan para la próxima década

Estas cuatro historias comparten un hilo: la transición no avanza solo por “buena voluntad”, sino cuando se alinean infraestructura, costes y decisiones políticas o corporativas. China muestra que instalar renovables a escala puede empezar a romper el vínculo entre crecimiento y emisiones de carbono. Las baterías prueban que la red puede volverse más flexible y menos dependiente del gas en momentos críticos. La presión energética de la IA está empujando capital hacia tecnologías constantes como geotermia y nuclear. Las proyecciones de calentamiento, aunque insuficientemente buenas, indican que la humanidad ya ha evitado parte del daño que parecía inevitable.

Visto de forma práctica, esto sugiere que 2026 y los años siguientes dependerán menos de descubrir una tecnología milagrosa y más de repetir, escalar y sostener lo que ya funciona. Como con el ejercicio físico, el truco no está en comprar las zapatillas más caras, sino en salir a caminar cada día sin dejar que una semana mala lo arruine todo.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Starlink quiere hacer sitio en el “carril rápido” del espacio: bajará miles de satélites para reducir choques

satelites

Mover un satélite no es como cambiar un coche de plaza en un aparcamiento. En el espacio, cada ajuste implica cálculos finos, consumo de combustible y coordinación con una coreografía orbital que no perdona despistes. Por eso llama la atención el anuncio de Starlink de que reducirá la altitud de una parte enorme de su red: alrededor de 4.400 satélites bajarán desde unos 550 kilómetros de altura a unos 480 kilómetros, según explicó Michael Nicolls, vicepresidente de ingeniería de Starlink, en una publicación en X recogida por Engadget y atribuida a información de Reuters.

La medida suena simple —“bajarlos un poco”—, pero tiene implicaciones prácticas para la seguridad espacial y para el modo en que se gestiona el tráfico en la órbita baja terrestre. Si imaginamos la órbita como una autopista alrededor del planeta, Starlink está proponiendo cambiar de carril para circular por una zona menos congestionada y, al mismo tiempo, facilitar una “salida de emergencia” más rápida si algo falla.

Por qué bajar de 550 km a 480 km cambia el juego

En términos cotidianos, bajar la altitud es como conducir con la ventanilla abierta: hay más rozamiento. En el espacio no hay “aire” como aquí abajo, pero sí existe una atmósfera muy tenue a esas alturas. Ese resto de partículas genera arrastre atmosférico, una resistencia que, con el tiempo, hace que el satélite pierda energía y vaya descendiendo hasta reentrar y desintegrarse.

A mayor altitud, ese arrastre es menor, así que un satélite puede quedarse “flotando” años si pierde control o si queda inerte. A menor altitud, el arrastre aumenta y el retorno a la atmósfera ocurre antes. Nicolls explicó que este descenso busca reducir el riesgo de colisiones y que colocar los satélites en un rango menos “abarrotado” ayudaría a minimizar problemas si ocurre un incidente.

Este punto es clave: en caso de anomalía, fallo de propulsión o pérdida de orientación, un satélite más bajo tiende a “limpiarse” solo más rápido, porque la atmósfera termina tirando de él hacia abajo. Es una lógica de seguridad por diseño: si algo sale mal, que el sistema tenga una salida natural lo más corta posible.

El “mínimo solar” y por qué Starlink mira a los años 2030

El anuncio menciona un factor que suele pasar desapercibido fuera del mundo aeroespacial: el mínimo solar. El Sol atraviesa ciclos de actividad de aproximadamente 11 años. Cuando el Sol está más activo, calienta y expande las capas altas de la atmósfera, incrementando la densidad a determinadas altitudes. Traducido a lo práctico: hay más arrastre y los objetos en órbita tienden a caer antes.

Cuando la actividad solar baja y se entra en un mínimo, la atmósfera superior se contrae, la densidad disminuye y el arrastre cae. Resultado: los objetos pueden permanecer más tiempo arriba. Nicolls apuntó que, a medida que se acerque ese periodo (según su mensaje, esperado para principios de la década de 2030), el “tiempo de decaimiento balístico” a una altitud dada aumentará, y que bajar los satélites implicaría una reducción superior al 80% en ese tiempo de caída: de durar “4+ años” a “unos meses”, en sus palabras.

Dicho con una metáfora doméstica: si quieres que una hoja caiga pronto al suelo, no la sueltas en una habitación sin aire; la sueltas donde haya corriente. El mínimo solar sería esa habitación con menos corriente. Bajar la altitud es acercarse a una zona con más “corriente” y acelerar el retorno.

Menos basura espacial: una promesa con matices

El debate sobre basura espacial no es teórico. Cada fragmento cuenta: incluso un trozo pequeño puede causar daños serios a velocidades orbitales. Y cuando una colisión genera más fragmentos, el problema se retroalimenta. Es lo que se conoce popularmente como el riesgo de cascada de desechos, a veces asociado al escenario de Kessler.

En ese contexto, que un operador proponga reconfigurar su constelación para que, ante fallos, los satélites tarden menos en desorbitar puede leerse como un movimiento de reducción de riesgo sistémico. No elimina la posibilidad de incidentes, pero recorta la ventana temporal en la que un satélite fuera de control podría convertirse en un obstáculo durante años.

Aquí conviene ser muy preciso: bajar la altitud no hace “inmune” a la constelación. Lo que hace es modificar el balance de riesgos. Por un lado, reduce permanencia de objetos inertes. Por otro, concentra tráfico en una banda distinta, lo que exige mantener un altísimo nivel de seguimiento, predicción de conjunciones y capacidad de maniobra. Nicolls defendió que “condensar” las órbitas aporta seguridad, y el argumento se entiende: si se reorganiza bien, se puede mejorar la gestión interna y la respuesta ante eventos.

El contexto reciente: anomalías, escombros y maniobras no coordinadas

El anuncio llega tras semanas movidas. Engadget recordaba que Starlink informó recientemente de una anomalía en uno de sus satélites que generó debris y lo dejó dando tumbos. Un suceso así es justo el tipo de evento que pone a prueba la resiliencia de una red grande: cuando algo se fragmenta o pierde control, la prioridad pasa a ser minimizar riesgos para el resto de satélites y para otros operadores.

Nicolls también mencionó un “casi accidente” con un grupo de satélites lanzados desde China, afirmando que parecían haberse puesto en órbita sin intentar coordinarse con operadores ya presentes. Más allá del detalle concreto, el tema de fondo es la convivencia entre constelaciones y lanzamientos cada vez más frecuentes. El espacio cercano a la Tierra se parece menos a un desierto y más a un cruce con tráfico creciente, con actores que no siempre comparten protocolos o tiempos de reacción.

Cuando Nicolls habla de “riesgos difíciles de controlar” como maniobras no coordinadas y lanzamientos de otros operadores, está señalando un límite real: puedes mejorar tu propio sistema, pero no puedes gobernar el comportamiento de todo el ecosistema. Bajar la altitud aparece entonces como una forma de aumentar el margen de seguridad interno: si hay un problema, que el objeto problemático desaparezca antes del tablero.

Qué significa esto para SpaceX y para la “policía de tráfico” del espacio

Detrás de la noticia hay una pregunta que suele interesar al público: ¿quién pone orden? El seguimiento de objetos lo hacen redes de vigilancia y entidades gubernamentales, y los operadores comerciales suelen apoyarse en datos de seguimiento y sistemas de predicción para evitar aproximaciones peligrosas. Con miles de satélites activos, la automatización y los procedimientos de coordinación se vuelven esenciales.

Para SpaceX, este tipo de reconfiguración también es una declaración de madurez operativa. No se trata solo de lanzar y dar servicio, sino de demostrar que puedes ajustar arquitectura, gestionar riesgos y adaptar tu red a cambios a largo plazo como el mínimo solar. Es parecido a mantener una flota de reparto: no basta con comprar furgonetas, hay que planificar mantenimiento, rutas y planes de contingencia para cuando una se avería en hora punta.

En paralelo, la noticia deja una lección práctica: la sostenibilidad de la órbita baja depende tanto de decisiones técnicas como de normas y cultura de coordinación. Si los lanzamientos y maniobras se vuelven más intensos, la conversación sobre reglas de tráfico espacial y transparencia operativa gana peso. Y cuando una empresa del tamaño de Starlink decide cambiar de altitud a miles de unidades, ese movimiento se convierte en un experimento a escala real que otros observarán con lupa.

Lo que hay que vigilar a partir de ahora

El anuncio es claro en su intención, pero el éxito se medirá en la ejecución. Habrá que ver el ritmo de descenso, cómo se gestiona la transición sin incrementar riesgos temporales, y si la nueva configuración reduce incidentes o alertas de conjunción. También será relevante observar si otros operadores responden con ajustes similares o si el sector empuja hacia estándares compartidos más estrictos.

Por ahora, el mensaje principal es directo: Starlink apuesta por una órbita más baja para que, si algo falla, los satélites se “eliminen” más rápido de forma natural y se reduzca la exposición a colisiones y basura espacial, una estrategia explicada por su vicepresidente de ingeniería en X y difundida por Engadget con referencia a Reuters.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

El mito del internet descentralizado, en un mapa: un tercio de los centros de datos del mundo están en un solo país

El mito del internet descentralizado, en un mapa: un tercio de los centros de datos del mundo están en un solo país

Actualmente hay más de 11.000 centros de datos funcionando en todo el mundo, que se dice pronto. Viendo la enorme inversión de las tecnológicas, la cifra va a crecer exponencialmente en los próximos años. Ahora, gracias al mapa interactivo de Data Center Map sabemos dónde se encuentran. Una abrumadora mayoría de ellos está en el hemisferio norte, con un país que concentra casi un tercio del total.

Estados Unidos manda

Centros Datos Usa Estados Unidos

Para sorpresa de nadie, el país con mayor cantidad de centros de datos es Estados Unidos. Teniendo en cuenta que las principales empresas de infraestructura de nube son estadounidenses, tampoco es de extrañar.

En total cuentan con 4.303 centros de datos repartidos por todo el territorio, pero no de forma regular: hay regiones en las que la concentración es brutal. Sólo en el estado de Virginia hay la friolera de 668 centros de datos, es más que Alemania, el segundo país de la lista con 494 centros.

El clima también

Ya sabemos que los centros de datos consumen muchísima energía y gran parte de ella se va en refrigerar sus componentes. Cuanto más calor haga fuera, más va a costar enfriarlo y por tanto se consume más energía, además de agua.

Según la Sociedad Americana de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado, la temperatura ideal para un centro de datos está entre 18 y 27 grados centígrados. La ubicación tiene un impacto notable en los gastos derivados de la electricidad y el agua, por eso las tecnológicas suelen elegir lugares con temperaturas más bajas para montar su infraestructura. 

El sur también quiere su trozo del pastel

Indonesia Indonesia

Llama la atención que, a pesar de la recomendación de temperatura, hay muchísimos centros de datos en países donde el calor supone un problema. Rest of World ha hecho un extenso análisis sobre este fenómeno y calcula que al menos 600 instalaciones están operando en áreas fuera del rango óptimo. 

De hecho, siguiendo la lista de países con mayor número de centros de datos, vemos que Indonesia está en tercer lugar con 184 instalaciones, seguido de Brasil con 196. Ambos tienen una temperatura media de más de 26 grados, lo que significa que en buena parte del año las temperaturas superan ese umbral. 

Singapur Singapur

Un caso llamativo es el de Singapur, donde la temperatura media está en más de 28 grados. Cuenta con 78 centros de datos, una cifra baja comparada con las que hemos mencionado, pero están concentrados en una zona muy pequeña, lo que lo convierte en uno de los países con una mayor densidad de centros de datos

Otros países en los que está aumentando la demanda de centros de datos son India, Vietnam y Filipinas, todos ellos con climas bastante calurosos.

El reto del calor

¿Por qué construir en zonas tan calurosas? Para muchos países, que los datos estén dentro de sus propias fronteras es más importante que la temperatura óptima de funcionamiento. El riesgo que se presenta es que, con las temperaturas aumentando año tras año, lo que ahora es una situación manejable puede convertirse en un problema de difícil solución, especialmente en zonas como el Sudeste Asiático y Oriente Medio. 

Cuentan en Rest of World que precisamente en Singapur hay una iniciativa en la que participan más de 20 empresas tecnológicas y universidades con un objetivo: desarrollar un sistema de refrigeración específico para climas húmedos y calurosos. 

El sistema de refrigeración más habitual es por aire, pero en estas zonas lo más efectivo es usar un sistema de refrigeración híbrido que use aire cuando sea posible y agua cuando haga más calor. En algunas zonas con temperaturas extremas como Emiratos Árabes, hasta se están planteando construirlos bajo tierra. En China están probando una solución aún más radical: construir un centro de datos bajo el mar.

Imagen | ChatGPT, con datos de Data Center Map

En Xataka | Aragón no le teme a la IA: acaba de aprobar otros tres nuevos megacentros de datos en plena apuesta por las renovables

-
La noticia El mito del internet descentralizado, en un mapa: un tercio de los centros de datos del mundo están en un solo país fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

"Ya no puedes confiar en tus ojos para saber qué es real" . El CEO de Instagram anuncia que el feed ha muerto

"Ya no puedes confiar en tus ojos para saber qué es real" . El CEO de Instagram anuncia que el feed ha muerto

Que internet tal y como lo conocíamos ya no existe no es una sorpresa: se ha llenado de resultados de búsquedas generados por inteligencia artificial y de 'slop'. Las consecuencias ya se dejan ver: los clics se han reducido a la mitad, lo que es catastrófico para los medios. Pero no solo el texto está sufriendo ese aluvión de IA que difumina todo: ya no sabemos distinguir si una imagen es real o no, hemos pasado de documentar nuestra vida en redes sociales a la era del contenido de influencers favorecido por el algoritmo a vídeos e imágenes que no son reales, pero pueden pasar como tal. Ya no hay cuatro dedos que valgan.

Instagrammers, el feed ha muerto. Y esto también va a pasar factura a las redes sociales. Adam Mosseri, CEO de Instagram, cerraba el 2025 con una publicación en forma de presentación de 20 imágenes donde reflexionaba en profundidad sobre lo que viene: "la era de contenido sintético infinito", la antítesis de un Instagram más personal que lleva años muerto. 

Para Mosseri, la IA ha convertido la rejilla cuidadosamente cuidada con su algoritmo de su app en algo del pasado: "A menos que tengas menos de 25 años y uses Instagram, probablemente pienses en la app como un feed de fotos cuadradas. La estética es cuidada: mucho maquillaje, suavizado de piel, fotografía de alto contraste, paisajes bonitos", la sentencia de Mosseri cae como una losa sobre esta millennial, que todavía usa Instagram como una suerte de álbum de fotos.  "Ese feed está muerto. La gente dejó en gran medida de compartir momentos personales en el feed hace años". 

Captura De Pantalla 2026 01 04 A Las 7 51 52 Toca para ir a la publicación

En busca de algo real. Explica Mosseri que ahora sus usuarios y usuarias mantienen al día a sus contactos sobre su vida personal con "fotos improvisadas de zapatos y posados poco favorecedores" compartidos a través de DM. Y esto también afecta a creadores de contenido: la omnipresencia de imágenes hechas por IA va a traer un cambio: el adiós de esas fotografías de aspecto pro en favor de una estética más real e improvisada: "Las imágenes favorecedoras son baratas de producir y aburridas de consumir. La gente quiere contenido que se sienta real".

De hecho, el CEO de Instagram señala a los fabricantes, aplicable a cámaras y móviles, de los que dice se están equivocando al democratizar la capacidad de "parecer un fotógrafo profesional de 2015". Porque las imágenes RAW y con defectos son, todavía, una señal de realidad hasta que la IA sea capaz de copiarlas. 

Pero, ¿qué es real? Ha llegado el momento de desaprender a creer lo que ven nuestros ojos, algo que llevamos haciendo toda la vida. Javier Lacort explicaba que toda nuestra epistemología (que va desde un testimonio judicial a los álbumes de fotos) se basa en que ver es una forma de saber. Si ves un tigre, es que hay un tigre. Si ves una fotografía de un tigre, es que alguien ha estado cerca de uno. Esto ya no aplica: la era de destapar fake news organizadas ha dejado paso a que cualquiera con Nano Banana Pro pueda conseguir una imagen tan absurdamente realista con un prompt básico en pocos segundos. Ahora crear un deepfake es trivial.

Adam Mosseri piensa igual. "Durante la mayor parte de mi vida pude asumir con seguridad que las fotografías o los vídeos eran, en gran medida, capturas fieles de momentos que realmente ocurrieron. Eso claramente ya no es así, y vamos a tardar años en adaptarnos. Vamos a pasar de asumir por defecto que lo que vemos es real a empezar desde el escepticismo. A prestar atención a quién comparte algo y por qué. Esto será incómodo: estamos genéticamente predispuestos a creer a nuestros ojos".

Si no puedes vencerlos... El cambio de paradigma ya se ha producido, así que ahora Instagram y otras plataformas tienen que adaptarse a esta nueva realidad: "tenemos que construir las mejores herramientas creativas. Etiquetar el contenido generado por IA y verificar el contenido auténtico. Mostrar señales de credibilidad sobre quién está publicando. Seguir mejorando el posicionamiento de la originalidad". Es el apocalipsis del qué es una foto que llevamos años vaticinando.

Mosseri se centra en Instagram y habla de que "nos gusta quejarnos del 'contenido basura de IA', pero hay mucho contenido increíble creado con IA". No da ejemplos concretos ni habla de herramientas de Meta para hacerlo posible, pero Meta ya ha añadido herramientas de IA en Instagram y Facebook. Sin ir más lejos, su AI Studio permite crear chatbots personalizados para lidiar con tus seguidores.

Nuevos tiempos, nuevas medidas de identificación. Cada vez es más difícil identificar el contenido en IA, así que propone huellas digitales y firmas criptográficas en cámaras para identificar contenido real, olvidándose de etiquetas o marcas de agua. En cualquier caso, aboga por una mayor transparencia sobre quién publica en la plataforma y mejorar la creatividad para que sus usuarios humanos puedan competir con el contenido made in AI.



En Xataka | El futuro de Internet es inundarse de IA. Y hay quien ya ha visto un nicho de negocio: contenido hecho por humanos

En Xataka | Hay una generación trabajando gratis como documentalista de su propia vida: no son influencers pero actúan como si lo fueran

-
La noticia "Ya no puedes confiar en tus ojos para saber qué es real" . El CEO de Instagram anuncia que el feed ha muerto fue publicada originalmente en Xataka por Eva R. de Luis .



☞ El artículo completo original de Eva R. de Luis lo puedes ver aquí

Hay una edad a la que deberíamos dejar de beber alcohol para siempre. La neurociencia tiene claro por qué

Hay una edad a la que deberíamos dejar de beber alcohol para siempre. La neurociencia tiene claro por qué

Durante años, la cultura popular y ciertos estudios observacionales nos han vendido una idea reconfortable: el consumo moderado de alcohol podría ser inocuo e incluso beneficioso para el corazón. Sin embargo, cuando ponemos el foco en el cerebro, la historia cambia radicalmente. 

Es neurotóxico. Una corriente creciente de neurólogos y nueva evidencia epidemiológica apuntan a una realidad incómoda: el alcohol es una neurotoxina, y existe una edad biológica a partir de la cual nuestro cerebro pierde la capacidad de tolerarlo. Aunque las guías oficiales no prohíben beber a los jubilados, la literatura científica sugiere que los 65-70 años marcan una frontera crítica. Cruzarla con una copa en la mano podría estar acelerando el deterioro cognitivo y la demencia, que son enfermedades muy prevalentes en ese momento vital. 

Aunque hay excepciones, con personas que son muy longevas y apuntan a que su 'secreto' es tomar una copa de alcohol diaria. Aunque aquí puede que la genética juegue un importante papel. 

La reserva neuronal. El neurólogo Richard Restak popularizó una recomendación clínica contundente: hay que dejar de beber completamente a los 70 años. ¿Es una cifra arbitraria? No del todo. Se basa en el concepto de "reserva neuronal".

Según apunta la ciencia, un cerebro joven tiene un margen de maniobra ante la llegada de estas toxinas. Posee suficientes neuronas y plasticidad para ir compensando el daño leve que produce el etanol, pero, sin embargo, el envejecimiento natural lleva consigo una pérdida de neuronas. Es por ello que beber en la vejez es, básicamente, quemar el combustible de un depósito que ya está en reserva y que no se va a rellenar. 

Se va acelerando. La ciencia en este caso tiene bastante claro que el daño cerebral relacionado con el alcohol junto a un consumo intenso y prologado acelera el envejecimiento cerebral. Y es que ante el mismo consumo de alcohol, un cerebro que ya está envejecido tiene un mayor daño que uno joven. 

Algo que se explica porque los mecanismos de reparación neuronal se ven también envejecidos y no tienen la misma capacidad que cuando una persona tiene 20 años para compensar.

Los datos. El mayor golpe a la idea de que beber un poco "no hace daño" viene de grandes estudios de cohortes, como el famoso estudio Whitehall II, que siguió a miles de personas durante 23 años. En este caso se vio que las personas que bebían entre 14 y 21 copas de alcohol a la semana tuvieron tres veces más probabilidades de sufrir atrofia en el hipocampo en comparación con quien no bebía. Y esta es la región fundamental para tener memoria. 

Para aquellos que superaban las 30 unidades semanales, la probabilidad de atrofia se disparaba a casi seis veces más. Pero lo más preocupante es que no se observó ningún beneficio protector en el grupo del consumo ligero (menos de siete copas a la semana) frente a la abstinencia general.

Cero alcohol. Estos datos junto con los estudios de imagen cerebral apuntan que incluso los consumos dentro de lo 'moderado' se asocian a una alteración cerebral importante. Esto hace que se pueda afirmar que el margen de seguridad para el cerebro es prácticamente inexistente. 

La edad límite. ¿Por qué los 65 años pueden ser un punto de inflexión? Aunque no existe una "ley seca" internacional para mayores de 70, las organizaciones como la Alzheimer’s Society del Reino Unido advierten que los mayores de 65 son un grupo de riesgo especial.

Esto se debe a que ya se cuenta con un hígado envejecido que procesa el alcohol lentamente, lo que hace que el alcohol esté circulando más tiempo por el cuerpo. Esto se suma también a las interacciones que tiene el alcohol con medicamentos que peden aumentar su toxicidad y lo más importante: aumenta el riesgo de demencia. 

Hay que tener cuidado. Con todos estos datos, la ciencia tiene bastante claro que cualquier consumo incrementa el riesgo de problemas de salud, sobre todo en lo que a cerebro respecto. 

Si bien las guías clínicas aún recomiendan simplemente "no superar las 14 unidades semanales", la recomendación de expertos como Restak y la lectura de la evidencia más actual sugieren una estrategia de prevención más agresiva. Dado que no tenemos cura para la demencia y que la reserva neuronal es nuestro único escudo, dejar el alcohol al entrar en la tercera edad no es una opción, es una estrategia lógica de supervivencia cognitiva.

Imágenes | CHUTTERSNAP Simon Godfrey 

En Xataka | El mayor temor de la industria del alcohol se resume en solo cinco palabras: ser abstemio está de moda

-
La noticia Hay una edad a la que deberíamos dejar de beber alcohol para siempre. La neurociencia tiene claro por qué fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí