29 de noviembre de 2025

Modelos de inteligencia artificial para observación terrestre: así están cambiando nuestra comprensión del planeta

observación espacial

La necesidad de comprender qué ocurre en nuestro planeta con precisión y en tiempo real es cada vez más urgente. Desde la predicción de catástrofes naturales hasta la gestión de cultivos o la planificación urbana, múltiples sectores dependen de datos precisos sobre el comportamiento de la Tierra. En este contexto, la inteligencia artificial está transformando la forma en que accedemos, analizamos e interpretamos estos datos. IBM Research, junto con NASA, la Agencia Espacial Europea (ESA) y otros socios, lidera esta revolución científica.

Fundamentos adaptados a los datos espaciales

A diferencia de los problemas tradicionales de visión por computador, la observación terrestre (EO, por sus siglas en inglés) requiere una comprensión mucho más compleja de los datos. No basta con analizar imágenes RGB comunes. Se necesitan representaciones multispectrales, información temporal y datos provenientes de distintas fuentes como satélites ópticos, sensores de radar (SAR) y registros climáticos. IBM ha apostado por modelos fundacionales específicos para EO, que permiten generar abstracciones más precisas del mundo físico.

Prithvi-EO, creado en 2023 junto con NASA, fue el primer modelo en utilizar transformadores de visión a gran escala para datos EO multitemporales. Su evolución, Prithvi-EO-2.0, incorporó mejoras en el manejo de metadatos y en el análisis temporal, con resultados notables en tareas como detección de inundaciones o vigilancia medioambiental.

TerraMind y el aprendizaje multimodal

En colaboración con la ESA y el centro de supercomputación Jülich, IBM presentó en 2025 TerraMind, un modelo que introdujo un enfoque novedoso: el «pensamiento en modalidades». Esta capacidad permite al modelo comprender y generar información sin necesidad de tokenización, lo que mejora su eficiencia y flexibilidad. Además, incluye un algoritmo de autoajuste que se entrena con datos generados por el propio modelo, permitiéndole mejorar continuamente.

TerraMind ha demostrado ser altamente competitivo, dominando los benchmarks GEO-Bench-2 y PANGAEA en tareas específicas de EO. Incluso ha sido optimizado para funcionar en dispositivos de recursos limitados, como satélites pequeños o teléfonos móviles, lo que amplía su aplicabilidad.

Nuevas fronteras: del clima al Sol

IBM también ha trabajado en otros modelos fundacionales que amplían los límites tradicionales de la observación terrestre. Prithvi-WxC se centra en datos meteorológicos y climáticos, permitiendo predicciones regionales y globales incluso sin información previa inmediata. Surya, por su parte, fue desarrollado con NASA y otros ocho centros de investigación para estudiar la actividad solar. Este modelo analiza cómo las erupciones solares pueden afectar a infraestructuras críticas como redes eléctricas o sistemas de navegación.

Estos modelos se complementan con conjuntos de datos abiertos, como SuryaBench, y están alineados con una filosofía de ciencia abierta que contrasta con enfoques más cerrados como el de Google Earth AI.

Eficiencia y accesibilidad: el reto de la compresión

Uno de los desafíos más importantes en EO es el volumen masivo de datos. Para abordarlo, IBM ha desarrollado TerraCodec, un sistema de compresión neural que mejora en hasta 10 veces la eficiencia respecto a códecs tradicionales como JPEG 2000. Esto permite almacenar y transmitir información satelital con menor coste y sin perder calidad.

Al mismo tiempo, las versiones «pequeñas» y «mini» de Prithvi y TerraMind mantienen un rendimiento similar a sus equivalentes grandes, pero con una huella computacional reducida. Esto las hace ideales para tareas en entornos donde los recursos son limitados, como misiones espaciales o despliegues en zonas remotas.

Ciencia colaborativa y validación rigurosa

Uno de los pilares de estos desarrollos ha sido la colaboración con científicos especializados. Todos los modelos han sido co-creados y validados junto a expertos de NASA, ESA y otros centros, lo que garantiza que estén alineados con las necesidades reales del campo. Esto evita el error de aplicar modelos de visión por computador genéricos a problemas que requieren una comprensión más fina del contexto geoespacial.

Un estudio con los modelos Prithvi y TerraMind demostró que, al utilizar solo imágenes RGB, el rendimiento puede disminuir hasta un 25% en tareas como detección de cultivos o de zonas quemadas. Este resultado subraya la importancia de incorporar datos multispectrales para obtener predicciones más fiables.

Infraestructura abierta y herramientas de desarrollo

IBM ha acompañado estos modelos con herramientas que facilitan su adopción y personalización. TerraTorch, por ejemplo, permite ajustar y desplegar modelos fundacionales de forma sencilla. Esta biblioteca, de uso abierto, se ha convertido en un estándar dentro de la comunidad EO.

Además, IBM ha ampliado vLLM, una plataforma de inferencia de alto rendimiento, para que acepte entradas y salidas no textuales. Esto facilita flujos de trabajo completamente multimodales, algo esencial para integrar distintos tipos de datos EO.

Casos de uso concretos

La utilidad práctica de estos modelos ya es evidente. En el Reino Unido e Irlanda, Prithvi-EO fue adaptado para mejorar la detección de inundaciones. En África, se ha utilizado en esfuerzos de reforestación en Kenia y en el estudio de islas de calor en Sudáfrica. También se ha adaptado a los ecosistemas marinos en colaboración con el laboratorio marino de Plymouth y universidades británicas, dando origen al modelo Granite, especializado en la salud de los océanos.

TerraMind ha sido usado en competiciones como el Blue-Sky Challenge, donde ha mostrado su versatilidad en tareas como detección de barcos, predicción de inundaciones o degradación ecológica.

Transparencia y comunidad

Todo este trabajo se sostiene en una apuesta firme por el software abierto. Modelos, códigos y datos están disponibles bajo licencias como Apache 2.0, permitiendo que otros investigadores los usen, mejoren o adapten según sus necesidades. Frente a alternativas cerradas, esta filosofía potencia la colaboración y acelera el progreso científico.

Con la ayuda de benchmarks comunitarios como GEO-Bench-2 y NeuCo-bench, se están estableciendo nuevos estándares para evaluar la capacidad real de los modelos en tareas del mundo real. La participación activa en conferencias, talleres y tutoriales también ha sido clave para consolidar esta comunidad global de usuarios y desarrolladores.¡


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Una inteligencia artificial que descubre electrolitos para baterías con solo 58 datos

descubre electrolitos para baterías con solo 58 datos

La búsqueda de nuevos materiales para baterías es una carrera contra el tiempo. Cada experimento para probar una combinación química puede tardar semanas o incluso meses. Esto convierte el desarrollo de nuevas tecnologías energéticas en un proceso lento, especialmente cuando se trata de químicas emergentes que no cuentan con décadas de datos acumulados. Ante este desafío, un equipo de la Universidad de Chicago ha logrado un avance notable: un modelo de inteligencia artificial capaz de explorar un millón de combinaciones químicas para electrolitos de baterías partiendo de apenas 58 datos experimentales.

Este trabajo, dirigido por el laboratorio del profesor asistente Chibueze Amanchukwu, del Pritzker School of Molecular Engineering, fue recientemente publicado en la revista Nature Communications. El modelo creado aplica una técnica conocida como «aprendizaje activo», una estrategia que permite a la IA aprender mientras decide cuáles experimentos serían más informativos para mejorar su rendimiento.

Aprendizaje activo: el ciclo de prueba y error acelerado

En lugar de entrenar el modelo con una gigantesca base de datos histórica, los investigadores empezaron con solo 58 puntos de datos. A partir de allí, la IA generó predicciones sobre nuevas combinaciones químicas que podrían funcionar como electrolitos eficientes. Lo inusual de este trabajo es que el equipo no se quedó en simulaciones: fabricaron baterías reales con las sustancias sugeridas, probaron su rendimiento y retroalimentaron los resultados en el sistema para afinar la próxima ronda de predicciones.

El postdoctorando Ritesh Kumar, coautor del estudio, destaca que la validación experimental es clave. Muchos estudios se quedan en aproximaciones computacionales, pero esas simulaciones pueden alejarse de lo que sucede en condiciones reales. Aquí se decidió enfrentar la realidad física desde el inicio. Si la IA proponía un electrolito prometedor, el equipo lo sintetizaba y medía su durabilidad, evaluando su «ciclo de vida», uno de los indicadores más críticos en baterías.

Este ciclo de predicción, fabricación y prueba se repitió en siete rondas. En cada una, se testearon alrededor de diez electrolitos diferentes. Finalmente, se identificaron cuatro nuevas combinaciones que igualan o superan el rendimiento de los electrolitos comerciales más avanzados disponibles hoy.

Riesgos de extrapolar desde pocos datos

Al igual que pedirle a un generador de imágenes que pinte una cara con seis dedos, una IA que extrapola demasiada información desde una base de datos pequeña puede cometer errores. Los investigadores eran conscientes de esto. Desde el principio, el modelo no solo generaba predicciones, sino también un nivel de incertidumbre asociado a cada resultado. Esta información permitió priorizar cuáles compuestos valía la pena probar primero, maximizando el beneficio de cada nuevo experimento.

Con más datos, las predicciones se vuelven más fiables. Pero el valor de esta metodología reside justamente en hacer mucho con poco. Frente a la imposibilidad de probar un millón de combinaciones en el laboratorio, esta IA funciona como una especie de intuición científica automatizada, orientando la investigación hacia zonas químicas que tal vez los humanos no habrían explorado por su cuenta.

De la predicción a la generación

Actualmente, el modelo de IA parte de combinaciones ya existentes en bases de datos, y extrapola nuevas a partir de ellas. Pero los investigadores ya miran hacia un siguiente paso: convertir esta herramienta en una IA generativa, capaz de inventar moléculas completamente nuevas, sin depender de registros previos. En un universo químico con potencial de hasta 10 elevado a la 60 combinaciones posibles, las oportunidades son literalmente inabarcables por medios tradicionales.

Según el coautor Peiyuan Ma, esto permitiría romper con los límites de la literatura científica actual. Ya no se trataría solo de mejorar lo conocido, sino de descubrir configuraciones que nadie ha imaginado. No obstante, también advierte que, para que estas moléculas lleguen a ser útiles en el mundo real, la IA deberá evaluar muchos más criterios que solo la vida útil del ciclo de carga.

Un electrolito comercial no solo debe durar: también tiene que ser seguro, barato y tener buena capacidad de almacenamiento. La próxima generación de modelos deberá incluir estas variables para filtrar los candidatos con mayor potencial de éxito práctico.

Superar el sesgo humano en la ciencia

El proceso tradicional de investigación suele centrarse en lo que ya se conoce. Existe una inclinación natural a estudiar variaciones de compuestos que ya han mostrado buenos resultados. Es una forma de reducir riesgos, pero también limita el alcance del descubrimiento. Según Kumar, la IA puede ayudarnos a salir de ese ciclo y mirar más allá de las fronteras habituales del conocimiento científico.

Este modelo no reemplaza la ciencia experimental, sino que la complementa. Actúa como un navegador que sugiere rutas menos exploradas en un mapa gigantesco. La combinación de intuición humana, experimentación y herramientas de inteligencia artificial está marcando una nueva etapa en la ciencia de materiales.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Primeras pruebas en órbita de chips fotónicos de IA: un paso hacia la computación espacial del futuro

pruebas en órbita de chips fotónicos

Un conjunto de chips fotónicos de inteligencia artificial ha sido enviado a la Estación Espacial Internacional para ser puesto a prueba en un entorno donde el silicio tradicional enfrenta sus mayores desafíos. Esta iniciativa, liderada por la Universidad de Florida junto a NASA y otros socios como AIM Photonics, MIT, Vanguard Automation y el instituto alemán Fraunhofer Heinrich Hertz, marca un momento crucial en la investigación de semiconductores pensados para operar más allá de la atmósfera terrestre.

Los dispositivos fueron lanzados a bordo de la nave HTV-XI de la agencia espacial japonesa JAXA, como parte del experimento MISSE (Materials International Space Station Experiment) de la NASA. Este proyecto tiene un objetivo muy claro: observar cómo estas nuevas tecnologías fotónicas se comportan en condiciones extremas como la exposición a radiación espacial y oxígeno atómico.

Por qué la fotónica es clave para el futuro de la computación espacial

A diferencia de los chips electrónicos tradicionales, que utilizan el movimiento de electrones a través de materiales conductores, los chips fotónicos emplean luz para transmitir información. Este enfoque tiene ventajas notables: mayor velocidad, menor generación de calor y un consumo de energía significativamente reducido. En la Tierra, ya se exploran estos beneficios para tareas de inteligencia artificial, donde el procesamiento masivo de datos requiere de soluciones más eficientes.

Pero en el espacio, estas cualidades cobran aún más valor. La exposición constante a radiación puede degradar los circuitos electrónicos convencionales, mientras que la fotónica, al no depender de cargas eléctricas en movimiento, podría ofrecer una mayor resistencia ante estos entornos agresivos. En otras palabras, mientras un chip tradicional es como una autopista de coches vulnerables a tormentas eléctricas, uno fotónico sería más parecido a una red de láseres inmune a los rayos.

La investigación tras los prototipos enviados al espacio

Los chips enviados fueron desarrollados en el Nanoscale Research Facility de la Universidad de Florida, un laboratorio donde se combinan las capacidades de diseño, fabricación y caracterización de dispositivos a escala nanométrica. AIM Photonics, con su experiencia en integración fotónica y producción en ambientes controlados, ha aportado componentes y soporte clave en la fabricación de estos prototipos.

Este esfuerzo conjunto es una prueba de concepto pionera: nunca antes se había puesto a prueba hardware de computación fotónica en el espacio. La información que se recabe en esta etapa experimental podrá abrir nuevas líneas de desarrollo para sistemas de inteligencia artificial que funcionen en satélites, estaciones espaciales, naves interplanetarias y hasta futuras colonias lunares o marcianas.

Lo que se espera aprender en la Estación Espacial Internacional

Los prototipos estarán expuestos durante un tiempo prolongado al entorno espacial, lo que permitirá medir su resistencia a la radiación, estabilidad de señal, consumo energético, y cualquier posible deterioro funcional. Estos datos serán cruciales para ajustar materiales, diseños y protecciones en futuras versiones.

Uno de los aspectos más importantes es la respuesta al oxígeno atómico, una forma altamente reactiva de oxígeno presente en la baja órbita terrestre, que puede corroer o degradar materiales con el tiempo. Comprender cómo afecta a componentes ópticos permitirá mejorar recubrimientos o elegir materiales alternativos.

También se observará la estabilidad térmica. En el espacio, las temperaturas pueden fluctuar drásticamente entre zonas iluminadas y en sombra. A diferencia de los sistemas electrónicos, que pueden fallar por sobrecalentamiento o congelamiento, los chips fotónicos podrían mantener mejor su rendimiento si se diseñan correctamente.

El papel de la colaboración internacional

Este proyecto no habría sido posible sin la colaboración de múltiples actores de alto nivel. Fraunhofer Heinrich Hertz Institute ha contribuido con conocimientos en telecomunicaciones ópticas, mientras que MIT y Vanguard Automation aportaron tecnologías de empaque y ensamblado de componentes a escala micro y nanométrica.

NASA, por su parte, ha proporcionado la infraestructura para llevar a cabo el experimento MISSE, un programa que desde hace años permite evaluar materiales y dispositivos en el entorno real del espacio exterior, algo imposible de replicar completamente en laboratorios terrestres.

Esta sinergia entre universidades, agencias gubernamentales y empresas tecnológicas evidencia cómo el avance en tecnología espacial requiere de un ecosistema colaborativo donde cada actor aporta una pieza esencial del rompecabezas.

Una mirada hacia el futuro de la computación espacial

Si los resultados de esta primera prueba son positivos, podríamos estar ante una nueva generación de computadoras espaciales más compactas, eficientes y resistentes. Equipos capaces de procesar información en tiempo real directamente en el espacio, sin depender tanto de enlaces de comunicación con la Tierra, lo que aumentaría la autonomía de las misiones.

Esto sería especialmente valioso en escenarios donde la latencia importa, como en drones espaciales, sistemas de navegación autónoma o en futuras estaciones orbitales con inteligencia artificial integrada para gestión de recursos.

Los chips fotónicos, en este contexto, podrían ser el motor silencioso que mantenga funcionando a las máquinas del futuro en la frialdad del espacio.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Un nuevo horizonte para la luz cuántica: topología y terahercios en armonía

image_quantum

La generación de armónicos de orden superior (HHG) es un fenómeno cuántico que permite transformar luz en frecuencias mucho más altas que las originales. Se trata de un proceso fundamental para acceder a regiones del espectro electromagnético que suelen estar fuera de nuestro alcance tecnológico habitual. Uno de los mayores desafíos ha sido precisamente generar luz en el rango de los terahercios (THz) mediante HHG, ya que la mayoría de los materiales tradicionales presentan una simetría demasiado perfecta como para facilitar esta conversión.

En este contexto, materiales como el grafeno han sido considerados prometedores, pero su simetría les permite generar solo armónicos impares, lo que limita sus aplicaciones. Los armónicos pares, necesarios para ampliar el abanico de usos prácticos de esta tecnología, han sido difíciles de conseguir. Esa limitación ha actuado como una muralla invisible que separa la teoría de la aplicación real.

Topología cuántica: una herramienta inesperada

Un equipo liderado por la profesora Miriam Serena Vitiello ha logrado superar este obstáculo gracias al uso de materiales cuánticos topológicos, que aportan una nueva perspectiva para manipular la luz. Estos materiales, conocidos como aislantes topológicos (TI), tienen un comportamiento curioso: actúan como aislantes en su interior, pero permiten el paso de corriente eléctrica por su superficie. Esta doble personalidad, resultado de una compleja interacción entre los electrones y su entorno cuántico, los convierte en candidatos ideales para explorar comportamientos no convencionales de la luz.

La clave de su singularidad está en su acoplamiento espín-órbita y en una propiedad conocida como simetría de reversión temporal, que les permite conservar ciertos estados cuánticos aun cuando cambian las condiciones externas. Durante años, se había predicho que estos materiales podían facilitar formas avanzadas de generación armónica, pero hasta ahora, esto no había sido demostrado experimentalmente.

Nanorresonadores: potenciadores de luz en miniatura

El equipo de investigación diseñó estructuras llamadas resonadores de anillo partido (split ring resonators), que funcionan como pequeños amplificadores de luz cuando se combinan con capas delgadas de materiales como Bi2Se3 y heteroestructuras de van der Waals con compuestos como (InₓBi₁₋ₓ)2Se3. Estas estructuras actúan como trampolines energéticos que impulsan la luz incidente hasta frecuencias mucho más altas.

Gracias a este diseño, lograron observar armónicos pares e impares en el rango de los terahercios, algo nunca antes conseguido. Las mediciones revelaron frecuencias convertidas de 6,4 THz (par) y 9,7 THz (impar), lo que evidencia que tanto el interior simétrico como la superficie asimétrica de los materiales topológicos participan activamente en la generación de luz. Este hallazgo representa una de las primeras pruebas experimentales de que los efectos topológicos pueden influir directamente en el comportamiento armónico de la luz a estas frecuencias.

Aplicaciones futuras que ya se vislumbran

Este avance abre la posibilidad de desarrollar fuentes de luz terahérz compactas y sintonizables, que podrían revolucionar componentes optoelectrónicos ultrarrápidos. En lugar de depender de sistemas grandes y costosos, podríamos contar con dispositivos portátiles capaces de generar luz THz de forma eficiente, algo que beneficiaría campos tan diversos como la comunicación inalámbrica de alta velocidad, la imagen médica avanzada o la computación cuántica.

Este descubrimiento también allana el camino para estudiar cómo la simetría y los estados cuánticos interactúan con la luz a nivel nanoscópico. Al igual que una orquesta afinada puede tocar notas que una sola guitarra no puede alcanzar, estos materiales cuánticos permiten que la luz «toque» frecuencias antes inaccesibles.

Un nuevo lenguaje para la electrónica del futuro

Las implicaciones van más allá de la investigación básica. A medida que la industria exige dispositivos más pequeños, rápidos y eficientes, el uso de materiales topológicos combinados con estructuras nanométricas podría representar un cambio radical en la forma en que entendemos y fabricamos tecnología. Las telecomunicaciones, los sensores ambientales, e incluso el desarrollo de nuevos métodos para el tratamiento de enfermedades podrían beneficiarse de estas fuentes THz compactas y ajustables.

El estudio, publicado en Light: Science & Applications y firmado por investigadores de varios centros europeos y asiáticos, no solo valida predicciones teóricas que llevaban años circulando en el campo de la física cuántica, sino que también señala con claridad una nueva ruta para las tecnologías del futuro.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

28 de noviembre de 2025

El James Webb ha roto otro récord histórico: un agujero negro supermasivo más antiguo de lo esperado

El James Webb ha roto otro récord histórico: un agujero negro supermasivo más antiguo de lo esperado

Desde que el Telescopio Espacial James Webb abrió sus ojos infrarrojos hacia el universo, la verdad es que todo lo que hay más allá de nuestra atmósfera ha pasado de ser algo tranquilo y desconocido a convertirse en un rompecabezas frenético para todos los astrofísicos. Su último descubrimiento apunta al agujero negro supermasivo más antiguo jamás detectado, algo que nos da más datos sobre el origen del universo

Ha llegado para romper esquemas. Este agujero negro se encuentra en la galaxia GHZ2, y su dato más relevante no es que se encuentre realmente lejos, sino el cuándo se formó. Las aproximaciones lo sitúan apenas 350 millones de años después del Big Bang. Algo que rompe los esquemas clásicos que manejaban los expertos, puesto que en teoría no habría habido tiempo suficiente para que un monstruo gravitatorio de ese calibre creciera tanto. 

Su descubrimiento. Como decimos, la protagonista de esta historia es la galaxia GHZ2/GLASS-z12. Un descubrimiento que se ha hecho gracias a las observaciones de JWST y al radioobservatorio ALMA de Chile, que ha confirmado su ubicación a través de diferentes parámetros que lo ubican como la estructura más lejana y antigua que jamás se han confirmado. 

Pero lo que ha hecho saltar las alarmas no es solo su distancia, sino la composición, puesto que se han detectado líneas de emisión de carbono ionizado extremadamente intensas. 

Para entender la importancia de este hallazgo, hay que saber que ionizar carbono a esos niveles necesita de una gran cantidad de energía. Esto hace que las estrellas más jóvenes y masivas tengan la capacidad para hacerlo, pero no es suficiente para explicar la intensidad que se ha observado en esta galaxia. Esto hace que se tenga que apuntar a un Núcleo Galáctico Activo, es decir, un agujero negro supermasivo que está engullendo materia a un ritmo frenético. 

El problema de tiempo. El estudio sugiere que este agujero negro tendría una masa enorme en comparación con su galaxia anfitriona. Mientras que en el universo local (el nuestro) la proporción entre la masa del agujero negro y la masa estelar de la galaxia es de alrededor del 0,1%, en GHZ2 esta relación podría dispararse hasta el 5%. Esto es algo que desafía las teorías de formación que ahora mismo se dividen en dos bandos

  • Semillas ligeras: los agujeros negros nacen de la muerte de las primeras estrellas y crecen poco a poco. Aquí el problema es que 350 millones de años no es suficiente para llegar a este tamaño. 
  • Semillas pesadas: nubes inmensas de gas primordial han colapsado en los agujeros negros para formarlos, pero sin pasar por ser una estrella. 

El hallazgo de GHZ2 apunta directamente a la segunda opción o a episodios de alimentación "super-Eddington" (comer más rápido de lo que teóricamente permite la presión de radiación).

Su importancia. Si este hallazgo se confirma finalmente, estaríamos ante el récord absoluto de un agujero negro supermasivo activo. Hasta ahora, este récord estaba en la galaxia UHZ1 a unos 470 millones de años tras el Big Bang. Pero ahora GHZ2 nos empuja más de 100 millones de años atrás en el tiempo, acercándonos peligrosamente al momento mismo en el que todo comenzó en nuestro universo. 

Lo que sí de verdad parece claro, es que el universo en su inicio no fue un lugar aburrido ni lento. Fue una época dinámica, violenta y rápida donde las galaxias y agujeros negros evolucionaban a una gran velocidad que ahora estamos comenzando a entender. 

Imágenes | BoliviaInteligente

En Xataka | Malas noticias, el Universo ha entrado en su fase de agonía. Buenas noticias, no vamos a estar aquí para verlo

-
La noticia El James Webb ha roto otro récord histórico: un agujero negro supermasivo más antiguo de lo esperado fue publicada originalmente en Xataka por José A. Lizana .

]]>

☞ El artículo completo original de José A. Lizana lo puedes ver aquí