24 de diciembre de 2025

Creíamos que el insomnio era solo no poder dormir. Ahora sabemos que son cinco trastornos distintos

Creíamos que el insomnio era solo no poder dormir. Ahora sabemos que son cinco trastornos distintos

El insomnio es para muchas personas un grave problema con el que lidian a diario, tanto de día como de noche, y cuyo tratamiento siempre se basa en tres pilares: higiene del sueño, terapia cognitivo-conductual o fármacos hipnóticos. Sin embargo, a veces lo que para una persona es útil, para otra es inútil. Algo que ahora sabemos que se debe a que no existe un solo tipo de insomnio, sino cinco. 

El estudio. Con origen español y publicado en el Journal of Sleep Research confirma lo que muchos especialistas estaban sospechando: el insomnio no es un trastorno único. Tal y como apunta Francesa Cañellas, del Hospital Universitario de Son Espases, la investigación ha comprobado que hay cinco subtipos distintos de insomnio, un hallazgo que promete revolucionar la forma en que tratamos los problemas de sueño.

Su evolución. La primera hipótesis que se planteó sobre la variabilidad del insomnio llega desde el año 2019, cuando unos investigadores holandeses ya veían que este trastorno contaba con cinco caras. El problema es que se tenía que probar estas diferencias según los rasgos de personalidad y la biografía de cada uno de los pacientes. 

Eso es exactamente lo que ha hecho el equipo español. Financiado por la Sociedad Española de Sueño (SES), el estudio ha analizado datos de ocho unidades de sueño en España utilizando el Cuestionario de Tipos de Insomnio (ITQ). Utilizando las respuestas de los pacientes en estos cuestionarios y los datos obtenidos del sueño de cada uno, se ha visto que estos cinco perfiles son ciertos. Aunque el problema es que el tipo más severo es el más frecuente. 

Los diferentes tipos. Lo interesante de este estudio es que no clasifica el insomnio por la cantidad de horas que se pasen durmiendo, sino por los rasgos de personalidad o el nivel de angustia. Partiendo de esto, la clasificación que se plantea es la siguiente: 

  • Tipo 1: un grupo muy complejo, ya que su peculiaridad es que cuentan con una alta angustia en su interior. De esta manera, son pacientes con altos niveles de neuroticismo, tensión y depresión. 
  • Tipo 2: pacientes que cuentan con una angustia moderada, pero que pueden responder a los estímulos positivos. De esta manera, son capaces de superar el problema gracias a la terapia cognitivo-conductual que es el tratamiento estándar habitual. 
  • Tipo 3: en este caso los pacientes no sienten mucha angustia, pero sí que tienen una gran insensibilidad al placer, lo que se conoce como anhedonia. Esto es un problema, porque al ser plano emocionalmente no son muy eficaces los tratamientos convencionales. 
  • Tipo 4 y 5: son las formas más leves, ya que se deben a problemas puntuales en la vida de cada paciente que aumentan su nivel de estrés pero sin una carga psicológica detrás. 

La mala noticia. Aunque se haya conseguido clasificar el insomnio en diferentes tipos, la realidad es que el 82% de los pacientes pertenecen a los subtipos 1 y 3. Estos son los que peor responden a los tratamientos y que generan un mayor daños psicológico sobre las personas. 

Como es lógico, estas son las personas que con mayor frecuencia acuden a la consulta médica y a las unidades del sueño porque literalmente no pueden más, puesto que difícilmente se va a solucionar su problema con una pastilla para dormir. De hecho, el estudio destaca que estos dos grupos son los que presentan mayor consumo de hipnóticos y ansiolíticos, a menudo con resultados pobres.

Una medicina de precisión. La importancia de este trabajo radica en que no hay un tratamiento estándar eficaz contra el insomnio. De esta manera, si un paciente del tipo 2 recibe la terapia psicológica le va a ir de maravilla, pero a un paciente del tipo 3 este tratamiento no le hará casi nada. Del mismo modo, el tipo 1 podría requerir un abordaje psiquiátrico para tratar esa angustia de fondo para después tratar el problema de insomnio. 

Con todo esto se busca dejar de tratar la enfermedad de manera aislada, y concebir que va a asociada a una persona que cuenta con una biografía concreta y una personalidad que puede requerir de unos cuidados diferentes. 

Imágenes | Solving Healthcare 

En Xataka | Lo cerca (y lo lejos) que estamos de no dormir nada en absoluto: por primera vez en la historia, tenemos una pequeña vía para intentarlo

-
La noticia Creíamos que el insomnio era solo no poder dormir. Ahora sabemos que son cinco trastornos distintos fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

El experimento más lento y arriesgado del mundo: lo que ocurre cuando un Cabernet envejece 20 años

El experimento más lento y arriesgado del mundo: lo que ocurre cuando un Cabernet envejece 20 años

Una botella que ha pasado dos décadas en una bodega sale de la penumbra y se posa sobre la mesa con el cuidado que se reserva a aquello que ha sido esperado durante años. No es solo vidrio y etiqueta: es tiempo contenido, decisiones tomadas mucho antes de que el mundo fuera el que es hoy. Antes incluso de descorcharla, la pregunta se impone: ¿qué ha ocurrido ahí dentro durante 20 años?

El vino tiene fama de mejorar con la edad, pero el mito se sostiene sobre una excepción. Como recuerda la enóloga y crítica Jancis Robinson en su columna para el Financial Times, menos del 10% del vino que se produce en el mundo está realmente diseñado para envejecer. Precisamente por eso, guardar una botella durante dos décadas no es un gesto romántico, sino una apuesta técnica, química y, en parte, arriesgada. Entender cómo sucede es comprender la verdadera ciencia de la paciencia.

El mito de que mejora con los años. Desde fuera, lo primero que delata el paso del tiempo es el color. Un Cabernet Sauvignon joven suele ser opaco, violáceo, casi negro. Tras veinte años, explica Robinson, ese color se ha ido aclarando y aparecen tonos granate, rubí e incluso matices teja en el borde de la copa. No es una señal de decadencia, sino de transformación. El vino ha perdido parte de sus pigmentos originales porque estos han reaccionado entre sí y con el oxígeno a lo largo de los años.

En la boca ocurre algo similar. El Cabernet Sauvignon nace con taninos potentes, ásperos, que secan la boca. Durante el envejecimiento, esos taninos se suavizan, el vino pierde agresividad y gana complejidad. Aparecen sedimentos en la botella, resultado físico de reacciones químicas acumuladas durante décadas. Según Robinson, el gran interrogante de todo vino pensado para envejecer es si tendrá suficiente fruta, acidez y estructura para sobrevivir a ese proceso. Cuando lo logra, el resultado no es un vino más intenso, sino más sutil, más profundo y, paradójicamente, más frágil. Por ese motivo, si el Cabernet Sauvignon se ha convertido en un candidato privilegiado para este viaje no es casualidad. Su combinación natural de taninos abundantes, acidez suficiente y capacidad antioxidante lo convierte en una de las pocas variedades capaces de dialogar con el tiempo durante décadas sin colapsar prematuramente.

Mirando con el microscopio. El envejecimiento del vino es cualquier cosa menos pasivo. Diversas publicaciones científicas, como la revisión Bottle Aging and Storage of Wines en la revista Molecules, explican que el protagonista principal es el oxígeno. En cantidades mínimas, el oxígeno entra lentamente en la botella a través del corcho y desencadena una serie de reacciones químicas controladas. Entre ellas, la polimerización de los taninos: moléculas pequeñas y agresivas se unen entre sí formando estructuras más grandes, percibidas por nuestro paladar como más suaves y sedosas.

Al mismo tiempo, los compuestos responsables del color —especialmente los antocianos— se combinan con taninos y otros fenoles. Estudios como el publicado en Foods, centrado en la evolución química de vinos tintos durante el envejecimiento, muestran cómo estos compuestos disminuyen con el tiempo y dan lugar a nuevos pigmentos más estables. En paralelo, los aromas primarios de fruta fresca se transforman en lo que la divulgadora Rana Masri describe en The Grape Grind como aromas terciarios: tabaco, cuero, bosque húmedo, caja de puros. No aparecen de la nada; son el resultado de décadas de reordenación molecular, lenta e irreversible.

El destino final del vino. El envejecimiento no depende solo del vino, sino también de su entorno. Las condiciones de guarda —temperatura estable, oscuridad, humedad y ausencia de vibraciones— son fundamentales. Un vino guardado a 14 ºC durante veinte años no envejece igual que uno sometido a cambios bruscos de temperatura. El tiempo, en el vino, necesita calma para trabajar bien.

Además, el estudio Wine aging: a bottleneck story ha demostrado que la entrada de oxígeno no ocurre solo a través del corcho, sino también en la interfaz entre el corcho y el cuello de la botella. Esto explica por qué dos botellas del mismo vino, del mismo lote, pueden evolucionar de forma distinta. El envejecimiento, incluso en condiciones ideales, no es completamente controlable. Como recuerdan en la página especializada Wine Folly, la acidez, el equilibrio alcohólico y la concentración de taninos determinan si un Cabernet está preparado para una larga vida o si colapsará antes de tiempo. Envejecer vino no es una garantía de mejora, sino una negociación constante con el fracaso.

No será lo mismo abrir una botella. Después de veinte años, un Cabernet Sauvignon no es simplemente un vino más viejo. Es el resultado de miles de microdecisiones: del viticultor, del enólogo, del tipo de cierre, de la bodega y, finalmente, del coleccionista que decidió no abrirlo antes. La ciencia explica gran parte del proceso, desde la polimerización de los taninos hasta la lenta oxidación controlada, pero siempre queda un margen de misterio. El vino envejece, pero también arriesga.

Quizá por eso, como apunta Jancis Robinson con cierta ironía, muchas bodegas y coleccionistas se enfrentan al mismo dilema, saber cuándo dejar de esperar. Porque el vino, por muy fascinante que sea su viaje molecular, no está hecho para ser eterno. Está hecho para ser bebido. Y, a veces, el mayor acto de sabiduría no es guardar la botella otros diez años, sino descorcharla y aceptar que la paciencia, al fin y al cabo, tenía un destino líquido.

Imagen | Unsplash

Xataka | Si la pregunta es por qué son tan caras las bebidas sin alcohol si no tienen impuestos, la respuesta es sencilla

-
La noticia El experimento más lento y arriesgado del mundo: lo que ocurre cuando un Cabernet envejece 20 años fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Hemos encontrado la primera "bala cósmica": un agujero negro supermasivo expulsado de su galaxia a 3,4 millones de km/h

Hemos encontrado la primera "bala cósmica": un agujero negro supermasivo expulsado de su galaxia a 3,4 millones de km/h

Hasta ahora, pensábamos en los agujeros negros supermasivos como las anclas inamovibles de las galaxias, siendo gigantes gravitatorios que mantienen todo en orden desde el centro. Pero estábamos bastante equivocados, puesto que el Telescopio Espacial James Webb nos ha confirmado que, a veces, estas anclas se rompen y salen disparadas por el espacio intergaláctico como si fueran auténticas balas de pistola. 

El estudio. Un equipo liderado por el astrónomo Pieter van Dokkum, de la Universidad de Yale, ha presentado la primera confirmación observacional de un agujero negro supermasivo errante. Se llama RBH-1 y su existencia es el resultado de uno de los eventos más violentos que permite la física: ser “expulsado” fuera de su casa por ondas gravitacionales.

Una cicatriz. Detectar esto no es algo fácil, puesto que los agujeros negros no se pueden ver a simple vista, sino que se analiza la destrucción que van dejando a su paso. Esto es precisamente lo que vio el JWST al detectar una estructura lineal masiva de unos 200.000 años luz de largo (el doble que el diámetro de la Vía Láctea), que conecta a una galaxia lejana con un punto brillante y difuso. 

Tras querer analizar más detalladamente esta destrucción, el propio telescopio ha desvelado que es una discontinuidad. En términos llanos: hay algo extremadamente masivo moviéndose a una velocidad absurda de 954 km/s, lo que equivale a 3.4 millones de kilómetros por hora. Una velocidad que nos permitiría viajar de la Tierra a la Luna en menos de siete minutos. 

Cómo lo sabemos. La pregunta en este caso parece obligada: ¿Cómo sabemos que es un agujero negro y no una simple formación estelar? La respuesta está en todo lo que va dejando a su paso, ya que al moverse a este tipo de velocidades tan elevadas, el agujero negro va comprimiendo el gas de forma tan violenta que genera un rastro de plasma caliente que se puede ir midiendo, así como la formación de nuevas estrellas. 

Y ahora la ciencia ha podido confirmar que este gas no está calentado por la luz que emiten las estrellas, sino por el choque brutal de un objetivo que tiene al menos 10 millones de veces la masa del Sol. 

Por qué sale huyendo. La teoría que hay detrás de este fenómeno no es nueva, sino que lleva 50 años predicha por la relatividad general. Pero para poder entender lo que ha ocurrido aquí, podemos verlo en tres pasos diferentes: 

  1. Lo primero que es dio fue la fusión de dos galaxias y sus respectivos agujeros negros supermasivos que empiezan a orbitar entre sí. 
  2. Tras esto, llega una tercera galaxia que se une a esta fiesta y su agujero negro interactúa con el sistema binario formado antes. 
  3. Por último, se da un "patadón" cósmico. En este caso, la interacción de tres cuerpos genera una gran asimetría en las ondas gravitacionales que deriva en que un agujero negro salga disparado fuera de la galaxia a una gran velocidad. 

No es el primero. Ya conocíamos agujeros negros errantes de "masa estelar" (unas pocas veces la masa del Sol) vagando por nuestra propia Vía Láctea, detectados por efectos de microlente gravitacional por el Hubble o la misión Gaia. Sin embargo, encontrar un supermasivo, que es el tipo de objeto que suele vivir en el corazón de las galaxias, es un hito de otra escala.

Por qué esto es importa. La confirmación de RBH-1 no es una simple curiosidad para los físicos, sino que valida los modelos de evolución galáctica que sugieren que el universo está lleno de estos 'exiliados'. Y esto hace ver que si los agujeros negros supermasivos pueden ser expulsados con tanta facilidad, significa que muchas galaxias podrían estar “huérfanas” de su núcleo central, afectando a cómo crecen y cómo forman estrellas.

Imágenes | NASA Hubble Space Telescope

En Xataka | China está lanzando más cohetes que nunca al espacio. Y el motivo es muy simple: no depender de Starlink

-
La noticia Hemos encontrado la primera "bala cósmica": un agujero negro supermasivo expulsado de su galaxia a 3,4 millones de km/h fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Un exingeniero de la NASA lo tiene claro: los centros de datos en el espacio son una idea horrible

Un exingeniero de la NASA lo tiene claro: los centros de datos en el espacio son una idea horrible

La inteligencia artificial ha convertido la energía en el nuevo cuello de botella tecnológico. Y ante ese límite, algunas de las mayores empresas del mundo han comenzado a mirar hacia arriba. Por poner algunos ejemplos, Jeff Bezos ha hablado de "clústeres gigantes de IA orbitando el planeta" en una o dos décadas. Google ha experimentado con ejecutar cálculos de inteligencia artificial en satélites alimentados por energía solar. Nvidia respalda startups que quieren lanzar GPUs al espacio. Incluso OpenAI ha tanteado la compra de una empresa de cohetes para asegurarse un camino propio fuera de la Tierra. 

La promesa es seductora: centros de datos solares funcionando sin descanso, sin redes eléctricas ni torres de refrigeración. El problema es que, cuando se pasa del relato a la física, la ingeniería y los números, la idea empieza a resquebrajarse.

Centros de datos en el espacio. Hay una pregunta que orbita en este asunto: ¿por qué las tecnológicas quieren enviar centros de datos al espacio? La motivación a simple vista es clara. Según datos de la Agencia Internacional de la Energía, el consumo eléctrico de los centros de datos podría duplicarse antes de 2030, impulsado por la explosión de la IA generativa. Entrenar y ejecutar modelos como ChatGPT, Gemini o Claude requiere cantidades masivas de electricidad y enormes volúmenes de agua para refrigeración. En muchos lugares, estos proyectos ya se topan con la oposición local o con límites físicos de la red.

En este contexto, el espacio aparece como una solución tentadora. En determinadas órbitas, los paneles solares pueden recibir luz casi constante, sin nubes ni ciclos nocturnos. Además, como explican Bezos y otros defensores, el vacío espacial parece ofrecer un entorno ideal para disipar calor sin recurrir a torres de refrigeración ni a millones de litros de agua dulce. Según este argumento, los centros de datos espaciales serían más eficientes, más sostenibles y, con el tiempo, incluso más baratos que los terrestres. Para algunos ejecutivos, no sería una excentricidad, sino la "evolución natural" de una infraestructura que ya empezó con los satélites de comunicaciones.

Cuando los ingenieros levantan la mano. Frente al entusiasmo de los comunicados corporativos, varios expertos en ingeniería espacial han sido mucho más contundentes. En uno de los textos más citados sobre el tema, un exingeniero de la NASA con doctorado en electrónica espacial y experiencia directa en infraestructura de IA en Google resume su posición sin rodeos: "Esta es una idea terrible y no tiene ningún sentido".

Su crítica no es ideológica, sino técnica. Y empieza por el primer gran mito, la supuesta abundancia de energía en el espacio.

La energía solar no es magia. El mayor sistema solar jamás desplegado fuera de la Tierra es el de la Estación Espacial Internacional. Según datos de la NASA, sus paneles cubren unos 2.500 metros cuadrados y, en condiciones ideales, generan entre 84 y 120 kilovatios de potencia, de los cuales una parte se destina a cargar baterías para los periodos en sombra. Para ponerlo en contexto, una sola GPU moderna para IA consume del orden de 700 vatios, y en la práctica alrededor de 1 kilovatio cuando se tienen en cuenta pérdidas y sistemas auxiliares. Con esas cifras, una infraestructura del tamaño de la ISS apenas podría alimentar unas pocas centenas de GPU.

Como explica este ingeniero, un centro de datos moderno puede albergar decenas o cientos de miles de GPU. Igualar esa capacidad requeriría lanzar cientos de estructuras del tamaño —y la complejidad— de la Estación Espacial Internacional. Y aun así, cada una equivaldría apenas a unos pocos racks de servidores terrestres. Además, la alternativa nuclear tampoco resuelve el problema ya que los generadores nucleares utilizados en el espacio, los RTG, producen entre 50 y 150 vatios. En otras palabras, ni siquiera lo suficiente para alimentar una sola GPU.

El espacio no es un frigorífico. El segundo gran argumento en contra de los centros de datos orbitales es la refrigeración. Se repite con frecuencia que el espacio es frío, y que eso facilitaría disipar el calor de los servidores. Según los ingenieros, esta es una de las ideas más engañosas de todo el debate.

En la Tierra, la refrigeración se basa en la convección: el aire o el agua se llevan el calor. En el vacío del espacio, la convección no existe. Todo el calor debe eliminarse mediante radiación, un proceso mucho menos eficiente y que exige superficies enormes. La propia NASA ofrece un ejemplo contundente, el sistema de control térmico activo de la Estación Espacial Internacional. Se trata de una red extremadamente compleja de circuitos de amoníaco, bombas, intercambiadores y radiadores gigantes. Y aun así, su capacidad de disipación está en el orden de decenas de kilovatios. Según los cálculos del ingeniero citado, refrigerar el calor generado por GPUs de alto rendimiento en el espacio requeriría radiadores todavía mayores que los paneles solares que las alimentan. El resultado sería un satélite colosal, más grande y complejo que la ISS, para realizar una tarea que en la Tierra se resuelve con mucha más sencillez.

Y hay un tercer factor: la radiación. En órbita, la electrónica está expuesta a partículas cargadas que pueden provocar errores de bits, reinicios inesperados o daños permanentes en los chips. Aunque algunas pruebas, como las realizadas por Google con sus TPUs, muestran que ciertos componentes pueden resistir dosis elevadas, los fallos no desaparecen, solo se multiplican.

Blindar los sistemas reduce el riesgo, pero añade masa. Y cada kilo extra incrementa el coste del lanzamiento. Además, el hardware de IA tiene una vida útil muy corta, ya que en pocos años queda obsoleto. En la Tierra se sustituye; en el espacio, no. Como señalan los críticos, un centro de datos orbital tendría que funcionar durante muchos años para amortizar su coste, pero lo haría con hardware que se queda atrás mucho antes.

Entonces, ¿por qué siguen insistiendo? La respuesta parece estar menos en la ingeniería actual y más en la estrategia a largo plazo. Todos estos proyectos dependen de la condición que los costes de lanzamiento caigan de forma drástica. Algunas estimaciones, hablan de umbrales de unos 200 dólares por kilo para que los centros de datos espaciales puedan competir económicamente con los terrestres. Ese escenario se apoya en cohetes totalmente reutilizables como Starship, que todavía no han demostrado esa capacidad a escala operativa. Mientras tanto, las energías renovables terrestres siguen abaratándose, y los sistemas de almacenamiento mejoran año tras año.

Además, el relato del espacio cumple otra función porque posiciona a estas empresas como visionarias, atrae inversión y refuerza la idea de que el futuro pasa inevitablemente por ellas. Como ocurre con la energía solar espacial, una promesa que lleva décadas reapareciendo cada cierto tiempo, la viabilidad siempre se sitúa "a 20 años vista".

Una idea muy buena sobre el papel. Nada de esto significa que no pueda haber usos puntuales de la computación en órbita: experimentos, aplicaciones militares o tareas muy concretas. Pero, como coinciden las fuentes técnicas y los propios números de la NASA, pensar que el grueso de la infraestructura de la IA mundial acabará flotando alrededor de la Tierra es, hoy por hoy, más un ejercicio de imaginación que una solución realista.

Tal vez el mayor interrogante no sea si podemos llevar los centros de datos al espacio, sino por qué resulta más atractivo fantasear con ello que afrontar los límites energéticos aquí abajo. Porque, al final, la inteligencia artificial puede mirar al cielo todo lo que quiera, pero sigue dependiendo de leyes físicas que no entienden de relatos inspiradores.

Imagen | Freepik y Unsplash

Xataka | Llevamos meses hablando teóricamente de centros de datos en el espacio. Una empresa ya tiene un plan para montarlo en 2027

-
La noticia Un exingeniero de la NASA lo tiene claro: los centros de datos en el espacio son una idea horrible fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Guardar el cordón de tu hijo no es el "seguro de vida" que prometen: la ciencia apunta a otras formas de ayudar

Guardar el cordón de tu hijo no es el "seguro de vida" que prometen: la ciencia apunta a otras formas de ayudar

Cuando una pareja espera un hijo, antes del nacimiento se plantea una decisión compleja y que cada vez se va publicitando más: qué hacer con la sangre del cordón umbilical. Y aquí hay un debate bastante profundo: las clínicas lo venden como un "seguro biológico" para el futuro, mientras que la comunidad científica prefiere hablar de altruismo y utilidad colectiva

Su importancia biológica. Para entender este debate, primero hay que saber que por qué es tan codiciada la sangre que hay en un cordón umbilical. Y es que en realidad es muy valiosa, puesto que cuenta con células sanguíneas fundamentales para tratar enfermedades graves como por ejemplo una leucemia o un linfoma. Situaciones en las que se requiere de un donante lo más parecido posible al donante para renovar sus células sanguíneas, y que mejor que la sangre de uno mismo para hacerlo. 

Las células que hay en el cordón pueden regenerar las células sanguíneas, incluyendo las del propio sistema inmunitario, haciendo que un paciente que no tenga un donante tenga una gran oportunidad de sobrevivir. Aunque a veces con un cordón no llega a ser suficiente para renovar toda la reserva de células sanguíneas. 

La realidad de las probabilidades. Como decimos, el argumento principal de los bancos privados es la disponibilidad inmediata de células madre para el propio niño con un autotransplante. Pero las diferentes guías europeas aportan cifras que invitan a tener una reflexión, como por ejemplo que la posibilidad de que se use esta sangre para un trasplante autólogo se estima entre el 0.0005 y el 0.000004%

De esta manera, se calcula que hay una probabilidad de usar esta sangre menor al 0,04% en un horizonte de 20 años. E incluso hay situaciones en los que cuando un niño presenta leucemia, la clínica desaconseja el uso de la propia sangre del niño en su cordón porque podría contar con alguna alteración genética que haya llevado a tener una leucemia a corta edad. 

Los bancos públicos. En el paradigma actual, hay diferentes bancos donde se puede almacenar la sangre. Por un lado, tenemos la opción pública donde cualquier familia puede donar la sangre del cordón para que quede almacenada, pero el uso estará destinado a cualquier persona del mundo que lo necesite y sea compatible. Es decir, no será exclusivo de la familia que lo ha donado, teniendo que esperar a una donación de este banco en el caso de necesitarlo. 

Pero esto hace que esta sangre tenga muchas posibilidades de ser usada en alguna persona alrededor del planeta para resolver una enfermedad grave como una leucemia. Esto es algo posible en España al estar integrado en la red REDMO que es usada para registrar a las personas donantes de médula ósea. Lo que es está claro es que España es un referente internacional en este campo. Con decenas de miles de unidades almacenadas en su red pública, ya se han realizado cerca de 2.000 trasplantes con éxito, demostrando que la verdadera utilidad hoy reside en el modelo altruista.

El banco privado. En el caso de querer exclusividad sobre la sangre del cordón umbilical, esta es la opción más recomendada lógicamente. Pero también hay que tener en cuenta que el precio que se debe pagar es bastante elevado, ya que el mantenimiento que tiene el almacenamiento de la sangre no es gratuito, y requiere de pagos periódicos. Incluso la ciencia apunta a que no es lo más aconsejable, salvo en situaciones muy concretas.

El inconveniente aquí es que posiblemente nunca se tenga que hacer uso de esta sangre porque no se contraiga una enfermedad que no es común, y también porque hay situaciones donde no es posible hacerlo. 

La medicina regenerativa. De cara al futuro no se sabe bien qué se podrán hacer con estas células del cordón umbilical. La ciencia ahora mismo está explorando su posibilidad de tratar con estas células la diabetes de tipo 1 al poder regenerar la función del páncreas, o incluso hay estudios centrados en la parálisis cerebral. Pero nada avanzado. 

 Y aunque hay potencial sobre el papel, las sociedades médicas como la Academia Americana de Pediatría (AAP) advierten que almacenar sangre de cordón para un uso futuro incierto en medicina regenerativa es, hoy por hoy, una práctica sin justificación científica consolidada.

Qué se debe hacer. La recomendación mayoritaria de las autoridades sanitarias es clara: la donación pública es la opción más sólida. Al donar al banco público, la unidad entra en un registro internacional donde puede salvar la vida de un niño o adulto en cualquier parte del mundo. Aunque lógicamente la decisión siempre es de los padres que tienen la libertad de tomar el camino que quieran. 

Si bien, aunque se opte por un banco privado, hay que tener en cuenta que este debe contar con las certificaciones necesarias para que en el momento que esa sangre fuera necesaria esté en las condiciones óptimas para ser procesada. 

Imágenes | Eduardo Barrios

En Xataka | Han creado una fábrica de sangre artificial que "respira": es fundamental para darnos la clave de la leucemia


-
La noticia Guardar el cordón de tu hijo no es el "seguro de vida" que prometen: la ciencia apunta a otras formas de ayudar fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí