2 de enero de 2026

La paradoja de que Meta compre Manus: su mayor ventaja es no tener modelo propio

La paradoja de que Meta compre Manus: su mayor ventaja es no tener modelo propio

Meta acabó su 2025 anunciando la compra de Manus por más de 2.000 millones de dólares. Dice mucho que sea una empresa que coordina y dirige modelos ajenos. 

Por qué es importante. Manus alcanzó 100 millones en ingresos recurrentes anuales sin entrenar un solo modelo. Usa Claude y modelos de Alibaba para hacer el trabajo pesado. Su diferenciación no está en la inteligencia del modelo sino en la ejecución: planificar tareas complejas, invocar herramientas, iterar sobre resultados, entregar trabajo terminado... un modelo puramente agéntico que logró su pequeño momento viral a principios de año.

OpenAI, Google y compañía se centran en anunciar modelos que pelean por arañar décimas en los benchmarks, pero Manus simplemente factura vendiendo esa capacidad de dirigir modelos ajenos.

El telón de fondo. En ranking como los de Chatbot Arena llevamos un año viendo el mismo patrón: cada vez que un modelo se corona como el mejor, otro lo supera en pocas semanas. Ninguno logra establecer una diferencia duradera y no se aprecia un gran moat, ni siquiera la capilaridad y reconocimiento de OpenAI, o la capacidad de distribución de Google.

Sí, pero. Si los modelos se están commoditizando y son cada vez más intercambiables, ¿dónde está el negocio? Meta acaba de dar su respuesta: en la capa de la aplicación. En quién controla la distribución donde la gente realmente usa IA.

Meta gasta 70.000 millones de dólares al año (y subiendo) en infraestructura de IA, pero Meta AI no está cuajando y Llama 4 pinchó. Le falta lo que Manus ha demostrado tener: capacidad probada de convertir modelos en producto que la gente paga por usar.

La amenaza. Meta se está enfrentando a un problema de distribución:

  • Google tiene Android, Google Search, Gmail, Google Docs...
  • Microsoft tiene Windows y su suite de productividad, además de ser ubicua en las empresas.
  • Apple controla el iPhone y el Mac.

Y Meta tiene plataformas sociales y de mensajería, pero su historial en productos corporativos es desastroso. Workplace nunca llegó a despegar y echó el cierre. Su reputación con datos empresariales no es precisamente estupenda. Comprar tecnología es fácil, pero que las empresas confíen en Meta como proveedor de herramientas de trabajo es otra historia.

El arbitraje chino. Las startups de IA china están claramente infravaloradas:

El número uno chino vale menos del 1% del americano con una capacidad técnica comparable, y la penetración de OpenAI justifica la distancia, pero no a ese nivel. Benchmark Capital vio estas cifras y metió 75 millones en mayo a una valoración de 500 millones. Unos meses después sale por más de 2.000 millones.

El nuevo manual. Manus acaba de demostrar que existe una ruta viable para las startups chinas de IA: recurrir al talento chino barato y bien entrenado, desarrollar un producto pensado para mercados globales (y no solo el chino) desde el primer día, levantar capital occidental, mover la sede legal fuera de China (en este caso, Singapur), y lograr una "salida limpia".

Ahora es de esperar que otras startups chinas sigan un camino similar, y las autoridades chinas son conscientes de ello... y no está contentas con la idea, según el Wall Street Journal. La ven como una fuga de tecnología desarrollada con ingenieros locales.

Y ahora qué. Meta integrará a Manus en Facebook, Instagram y WhatsApp. Pero el mensaje real va más allá: en la IA, como pasó con Internet, la infraestructura se convierte en commodity y el negocio está en la "última milla" digital, donde la tecnología toca al usuario.

Meta acaba de pagar 2.500 millones por no olvidar esa lección.

En Xataka | Mark Zuckerberg está dando un giro radical a la estrategia IA de Meta. Y eso pasa por perder a un Premio Nobel

Imagen destacada | Manus, Xataka con Mockuuups Studio

-
La noticia La paradoja de que Meta compre Manus: su mayor ventaja es no tener modelo propio fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

Colossus, la apuesta de xAI por una IA a escala “ciudad”: potencia cercana a 2 GW y el debate energético

Centro de datos cuántico de última generación en funcionamiento

Elon Musk ha vuelto a poner el foco en la infraestructura física detrás de la inteligencia artificial. Según contó en una publicación en X a finales de diciembre, xAI ha adquirido un tercer edificio —al que llamó “MACROHARDRR”— para ampliar la capacidad de su supercomputadora Colossus. La idea es sencilla de enunciar y difícil de ejecutar: sumar más espacio para convertirlo en centro de datos y aumentar la potencia de entrenamiento de modelos de IA.

Medios como The Information sitúan esta nueva compra en forma de gran almacén en las afueras de Memphis, cerca de Southaven (Mississippi), con planes de reconversión durante 2026. La instalación serviría como apoyo tanto del complejo actual de Memphis como del sitio de Colossus 2, que aún está en construcción. La lectura entre líneas es clara: xAI está intentando ganar tiempo y músculo computacional a la vez, escalando en paralelo edificios, chips y energía.

Del “cluster” de GPUs al objetivo del millón: cuando la IA se mide en ladrillos y silicio

En el imaginario popular, entrenar una IA parece algo etéreo, como si ocurriera “en la nube” sin gravedad ni fricción. La realidad se parece más a montar una fábrica: necesitas naves, cableado, refrigeración, subestaciones eléctricas y una logística milimétrica. En ese contexto encaja el dato más ambicioso: xAI planea llevar Colossus a albergar al menos un millón de GPUs, un volumen que coloca el proyecto entre los mayores esfuerzos de entrenamiento de IA del mundo.

Musk ya había apuntado que Colossus 2 por sí sola podría alojar alrededor de 550.000 chips de Nvidia, con costes que se irían a decenas de miles de millones de dólares. Es el tipo de cifra que se entiende mejor con una metáfora cotidiana: no hablamos de “comprar un ordenador potente”, sino de llenar varios estadios con ordenadores especializados que trabajan a la vez, día y noche, para aprender patrones a partir de cantidades gigantescas de datos.

Qué significa “casi 2 GW”: la electricidad como nuevo cuello de botella

El titular que más impresiona no es el del tercer edificio, sino el de la potencia: xAI se acercaría a 2 GW de capacidad de cómputo. Dos gigavatios no son un detalle técnico; es un orden de magnitud que cambia las conversaciones. Musk lo comparó con el consumo equivalente al de alrededor de 1,5 millones de hogares estadounidenses. Aunque estas equivalencias siempre simplifican, sirven para ubicar la escala: estamos ante una instalación que, por demanda energética, se comporta como una gran pieza de infraestructura industrial.

Para imaginarlo, piensa en una cocina donde decides poner cien hornos a máxima potencia y mantenerlos encendidos sin pausa. El problema deja de ser “si el horno calienta bien” y pasa a ser si tu casa soporta la instalación eléctrica, si puedes evacuar el calor y cuánto te costará la factura. Con la IA ocurre lo mismo: los modelos se entrenan con GPUs que consumen mucha energía y convierten una parte relevante en calor, lo que obliga a invertir tanto en electricidad como en refrigeración.

La estrategia energética: planta de gas y turbinas bajo la lupa

Cuando un centro de datos crece a este ritmo, la red eléctrica local se convierte en un tablero de negociación. Según The Information, xAI está desarrollando su propia infraestructura energética, incluyendo una planta de gas natural cerca de los sitios de Colossus, junto con acceso a otras fuentes de energía. Es una forma de reducir dependencia de la red y asegurar suministro estable, algo crítico cuando cada interrupción significa perder horas de entrenamiento y dinero.

Ese enfoque, sin embargo, ha encendido alarmas. Una investigación de Tennessee Lookout publicada en julio de 2025 señaló que la instalación operaba 33 turbinas de gas alimentadas por metano a pesar de contar con permisos para 15 en ese momento. El mismo reportaje situaba el centro en una comunidad de Memphis mayoritariamente negra y de bajos ingresos, con un historial de enfermedades asociadas a contaminación. En el plano político local, el representante estatal Justin J. Pearson advirtió que las emisiones podrían elevar el smog entre un 30% y un 60%, citando contaminantes como óxidos de nitrógeno y formaldehído, vinculados a problemas respiratorios y cardiovasculares.

Aquí aparece una tensión que se repite en distintos lugares del mundo: la carrera por la capacidad de cómputo empuja a construir deprisa, mientras las comunidades piden garantías, permisos claros y mediciones transparentes. Si la IA es el “cerebro”, la energía es el “sistema circulatorio”, y cualquier atajo en ese sistema termina afectando al cuerpo entero.

Agua, refrigeración y el lado menos visible del entrenamiento de modelos

La conversación pública suele quedarse en los chips, pero hay otro recurso clave: el agua. En centros de datos masivos, la refrigeración es tan determinante como la electricidad, y no siempre se resuelve con aire. xAI, consciente del impacto, ha reconocido el tamaño de su huella ambiental y está impulsando medidas de mitigación. Entre ellas figura un centro de tratamiento de aguas residuales valorado en 80 millones de dólares para reutilizar aproximadamente 13 millones de galones diarios, reduciendo la dependencia del agua potable local destinada a enfriar equipos.

Es un paso relevante porque la refrigeración se parece al radiador de un coche: por muy buen motor que tengas, si no evacuas el calor, todo se detiene. En el caso de la IA, el “motor” son miles y miles de GPUs; el “radiador” es una infraestructura que puede consumir agua y energía en volúmenes enormes. La reutilización ayuda, aunque no elimina otras preocupaciones, sobre todo si la expansión continúa al ritmo anunciado.

Coste, sostenibilidad y confianza: el triángulo difícil de equilibrar

El crecimiento acelerado de xAI busca competir de tú a tú con desarrolladores consolidados como OpenAI y Anthropic. Su chatbot Grok, integrado en X, se beneficia de acceso a información en tiempo real y de la visibilidad de una plataforma social global. Para sostener ese impulso, xAI apuesta por un enfoque que prioriza control directo del hardware y de la energía, algo que recuerda a quienes construyen su propia carretera para que los camiones no dependan del tráfico de la autopista.

El problema es que construir “tu propia carretera” también significa asumir impactos que, de otro modo, quedarían repartidos. Por eso el debate no gira solo en torno a si la tecnología funciona, sino a quién paga el precio local del progreso: ruido, emisiones, presión sobre servicios, cambios en el uso del suelo y dudas sobre permisos. Activistas y residentes de Memphis y Southaven han cuestionado que un desarrollo de IA a escala multi-gigavatio pueda intensificar cargas ambientales ya existentes, especialmente cuando la expansión se anuncia poco después de investigaciones críticas.

Lo que conviene seguir en 2026: permisos, datos públicos y energía real

Con la conversión del nuevo edificio en marcha durante 2026, el termómetro de este caso será menos “cuántas GPUs llegan” y más “qué tan transparente es el proceso”. En proyectos de esta dimensión, la confianza se construye con cifras verificables: consumo eléctrico medido, emisiones reportadas, permisos en regla, auditorías, planes de contingencia y compromisos claros con la comunidad. La IA puede sentirse intangible, pero su infraestructura es tan concreta como una fábrica: ocupa espacio, demanda recursos y deja huella.

Si Colossus termina acercándose a los 2 GW, estaremos ante un ejemplo extremo de cómo la inteligencia artificial está empujando límites físicos: los de la red eléctrica, los del agua, los de la capacidad industrial para fabricar y desplegar chips, los de la gobernanza local para supervisar impactos. La pregunta de fondo no es si estos centros se van a construir, sino cómo se harán, con qué energía, con qué controles y con qué beneficios compartidos.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

1 de enero de 2026

Unos científicos han investigado qué le pasa a tu cerebro cuando juegas a videojuegos. Y tienen noticias sorprendentes

Unos científicos han investigado qué le pasa a tu cerebro cuando juegas a videojuegos. Y tienen noticias sorprendentes

Hay algo extrañamente reconfortante en la disonancia. A veces, mientras me peleo con una aguja de ganchillo intentando que una bufanda no termine pareciendo un trapo de cocina, me gusta poner de fondo el canal de TacticalGramma. Michelle tiene 59 años, es abuela orgullosa y, mientras yo cuento puntos de lana con torpeza, ella está aniquilando escuadrones enteros en Call of Duty: Black Ops 7 con una precisión que ya querría para sí cualquier adolescente.

La escena tiene esa ironía visual: la tecnología no ha venido a aislarnos en un sótano, sino a rescatar nuestras neuronas del óxido. Durante décadas, la narrativa social nos vendió que los videojuegos "pudrían" el cerebro; hoy, la ciencia empieza a sugerir que, si quieres llegar a los 60 con una buena agilidad mental, quizás deberías agarrar el mando. 

El reloj cerebral. Un estudio publicado por Nature ha logrado comparar la salud de las conexiones neuronales con la edad real de la persona —lo que se conoce como relojes cerebrales—. El equipo liderado por Carlos Coronel-Oliveros ha descubierto que los jugadores expertos en títulos de estrategia como StarCraft II poseen una estructura mental mucho más resistente al paso del tiempo. 

De media, el cerebro de estos jugadores funciona con una agilidad propia de alguien cuatro años más joven, según una estimación estadística basada en modelos de neuroimagen. Un fenómeno de eficiencia que la neurociencia llama Brain Age Gap (BAG).

Cuando el Sudoku ya no es suficiente. Mientras que los juegos mentales clásicos son tareas aisladas y repetitivas, un videojuego de acción obliga al cerebro a gestionar una avalancha de información en tiempo real. Este nivel de exigencia constante —planificar movimientos, reaccionar a ataques y filtrar distracciones simultáneamente— fuerza a las neuronas a reorganizarse.

Para llegar a esta conclusión, el equipo de investigación utilizó técnicas de whole-brain modeling, combinando resonancias magnéticas funcionales con algoritmos de aprendizaje automático capaces de detectar patrones sutiles en la conectividad. Los resultados mostraron una integración más eficiente en los llamados "hubs frontoparietales", regiones clave para la atención y la función ejecutiva que suelen ser de las primeras en deteriorarse con la edad.

Cambios en el 'hardware' cerebral. Este aparente rejuvenecimiento tiene un reflejo físico en la estructura del cerebro. La ciencia ha detectado que, al igual que un músculo se desarrolla con el ejercicio, ciertas zonas clave de los jugadores se vuelven más densas y robustas. Estudios en Scientific Reports y Translational Psychiatry revelan que quienes juegan habitualmente a títulos de acción tienen más "materia gris" en regiones encargadas de la coordinación, la atención y la toma de decisiones rápidas. Es como si el cerebro hubiera ensanchado sus autopistas de información para reaccionar antes y mejor ante cada estímulo.

Pero el cambio más útil es el perfeccionamiento de nuestro "filtro" visual. Investigaciones en PLOS ONE demuestran que los jugadores desarrollan una capacidad superior para ignorar el ruido innecesario. No es que vean más, es que su cerebro ha aprendido a procesar solo la información que realmente importa para ganar la partida, optimizando el gasto energético de la corteza visual.

El factor 'aprender a aprender'. Lo verdaderamente significativo no es ser más preciso dentro del juego, sino el impacto sobre la capacidad de seguir aprendiendo. Un estudio en Communications Biology mostró que el entrenamiento con videojuegos de acción acelera la velocidad con la que las personas aprenden tareas nuevas, incluso cuando estas no guardan relación con el juego.

Según explican los psicólogos Daphne Bavelier y C. Shawn Green, estos juegos entrenan el control atencional del cerebro. El resultado es una mejora en la adaptación cognitiva, algo valioso en un mundo tecnológico en constante cambio. No obstante, los expertos aún debaten el grado de "transferencia lejana", es decir, hasta qué punto ser un "as en el teclado" te hace mejor gestionando una crisis real o una hoja de cálculo compleja.

Cuando el beneficio se agota. Aun así, conviene bajar el entusiasmo. La mayoría de estos estudios son correlacionales: no permiten afirmar con certeza si jugar transforma el cerebro o si determinados perfiles cerebrales ya "ágiles" son más proclives a disfrutar de los videojuegos. Además, los efectos varían según la edad y el contexto vital.

La cara B tampoco es menor. Investigadores advierten de que una exposición excesiva puede provocar fatiga cognitiva y alteraciones del sueño. La Organización Mundial de la Salud reconoce el trastorno por videojuegos como un problema real cuando el juego se convierte en una conducta compulsiva. El beneficio neuronal depende del equilibrio de que si el reto deja de ser estimulante y se vuelve automático o adictivo, el efecto protector desaparece.

No sirve cualquier juego. Otro punto clave es que no todos los videojuegos producen los mismos efectos. Los beneficios más sólidos se observan en juegos de acción y estrategia en tiempo real, que exigen decisiones rápidas y multitarea. Como señalan los expertos, una vez que un juego deja de ser difícil y se vuelve mecánico, la plasticidad cerebral se estanca. La velocidad y la presión temporal parecen ser ingredientes esenciales para mantener la maquinaria en forma.

Hay algo esperanzador en ver a alguien como TacticalGramma dominar un entorno digital. La ciencia no dice que los videojuegos sean una panacea, pero sí sugiere que el envejecimiento cerebral no tiene por qué ser un camino de dirección única hacia el deterioro. Quizás el secreto para un cerebro más sano no esté en una pastilla, sino en nuestra capacidad de seguir enfrentándonos a lo difícil y aceptar la frustración del aprendizaje constante. Yo, de momento, voy a dejar el ganchillo un rato.

Imagen | Freepik

Xataka | El arte del autoengaño: por qué nuestro cerebro defiende nuestros errores aunque sepa que estamos equivocados

-
La noticia Unos científicos han investigado qué le pasa a tu cerebro cuando juegas a videojuegos. Y tienen noticias sorprendentes fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Urano y Neptuno podrían ser más “rocosos” de lo que pensábamos: el modelo que pone en duda a los gigantes helados

noticia2_planetas

Durante décadas, Urano y Neptuno han llevado la etiqueta de gigantes helados casi por inercia: planetas grandes, lejanos, fríos y con interiores donde el agua y otros compuestos volátiles deberían estar en forma de “hielo” comprimido. El problema es que ese nombre suena más preciso de lo que realmente es. Un estudio publicado el 10 de diciembre en Astronomy & Astrophysics propone que sus interiores podrían contener bastante más roca de lo que suele asumirse, algo que abre la puerta a describirlos, en ciertos escenarios, como gigantes rocosos.

La idea no es que Urano y Neptuno sean “bolas de piedra” como la Tierra, sino que la proporción entre roca y agua en sus capas profundas podría estar más inclinada hacia materiales rocosos de lo que se ha popularizado. Esa matización importa porque, en planetología, el nombre condiciona las preguntas que hacemos: si damos por hecho que el “hielo” domina, buscamos explicaciones y modelos que encajen con esa premisa.

Lo que sabemos… y lo que seguimos adivinando

Neptuno es el planeta más distante del Sol, con una órbita media a unos 4.500 millones de kilómetros. A esas distancias, la temperatura ambiental favorece que gases como el agua, el amoníaco o el metano se encuentren en estados muy distintos a los que imaginamos en una nevera. Pero aquí viene la trampa: cuando hablamos del interior de estos planetas, “hielo” no significa un cubito. Allí dentro, las presiones y temperaturas son tan extremas que el agua puede comportarse como un fluido denso, una mezcla pastosa o incluso adoptar fases exóticas.

La otra limitación es casi histórica: buena parte de los datos directos que tenemos de Urano y Neptuno provienen de los sobrevuelos de Voyager 2 en los años 80, es decir, una fotografía científica valiosísima, pero tomada hace décadas y con instrumentos que no se diseñaron para resolver todas las dudas actuales. Con ese panorama, los modelos del interior planetario se convierten en un ejercicio de encajar piezas: gravedad, masa, radio, rotación, composición atmosférica conocida… y muchas suposiciones razonables.

Un modelo “híbrido” para evitar sesgos

El trabajo liderado por Luca Morf (Universidad de Zúrich) junto con Ravit Helled intenta sortear uno de los dilemas clásicos. Los modelos puramente físicos pueden ser muy potentes, pero dependen de supuestos iniciales: si arrancas pensando que hay mucha agua, es fácil que el resultado acabe pareciéndose a ese punto de partida. Los modelos basados sobre todo en observaciones, por su parte, pueden quedarse cortos porque el conjunto de observaciones es limitado.

La propuesta es un enfoque híbrido, diseñado para ser a la vez “físicamente consistente” y menos dependiente de preferencias del modelador. Dicho de forma cotidiana: como si quisieras reconstruir el relleno de un pastel viendo solo su forma exterior y su peso, y fueras probando recetas hasta que la balanza y el tamaño cuadran sin hacer trampas.

El proceso arranca con una hipótesis sobre cómo cambia la densidad del núcleo con la distancia al centro. Luego se ajusta el modelo para que reproduzca la gravedad del planeta. A partir de ahí, el equipo infiere temperatura y composición, genera un nuevo perfil de densidad y vuelve a alimentar el modelo con esos parámetros. Se repite el ciclo hasta que el interior “encaja” con los datos disponibles.

Ocho interiores posibles y una sorpresa: más roca, menos “hielo”

Con este método, el equipo obtuvo ocho configuraciones plausibles para los núcleos de Urano y Neptuno. Lo interesante es que varias de esas soluciones presentan una relación roca/agua alta. En otras palabras, el conjunto de datos actuales permite interiores menos dominados por agua de lo que sugiere el apodo de gigantes helados.

Este matiz no elimina la presencia de volátiles. Urano y Neptuno seguirían siendo planetas con una estructura compleja, con capas donde se mezclan materiales bajo condiciones extremas. La novedad es que el “menú” de interiores compatibles con las observaciones se amplía: no estamos obligados a un núcleo principalmente helado para que la física cuadre.

Si lo traducimos a una imagen mental, es como descubrir que una lasaña que creías “casi toda bechamel” podría tener mucha más carne entre capas sin que por fuera cambie su aspecto. Desde fuera se ve igual; por dentro, la proporción puede variar bastante.

El agua que se comporta como un “caldo eléctrico”

Uno de los puntos más llamativos del estudio es que, en todos los núcleos modelados, aparecen regiones convectivas donde existiría agua en fase iónica. Esa expresión suena técnica, pero la idea es fascinante: bajo presiones y temperaturas descomunales, las moléculas de agua se rompen y pasan a formar un medio con partículas cargadas, como protones (H+) y grupos hidroxilo (OH-). Es agua, sí, pero no “agua” como la conocemos; se parece más a una sopa de cargas eléctricas moviéndose.

Aquí entra un concepto clave: la convección. Cuando un fluido caliente asciende y uno frío desciende, se generan corrientes. En un medio que conduce electricidad, esas corrientes son una receta excelente para producir un campo magnético. En la Tierra, el campo magnético se genera por movimientos del hierro líquido del núcleo externo. En Urano y Neptuno, un “océano” iónico en capas profundas podría desempeñar un papel parecido, aunque con ingredientes distintos.

Campos magnéticos raros y más de dos “polos” como pista

Urano y Neptuno tienen campos magnéticos particularmente desconcertantes: no son dipolos limpios y bien centrados como el de la Tierra, sino que presentan inclinaciones grandes respecto al eje de rotación y estructuras complejas que se interpretan como multipolares. Dicho de manera simple, su imán interno parece menos “barra” y más “nudo”.

El estudio sugiere que esas capas de agua iónica convectiva podrían estar relacionadas con esa geometría extraña. También apunta a una diferencia interesante: el campo magnético de Urano podría generarse más cerca del centro que el de Neptuno, lo que encajaría con la idea de capas internas distintas pese a que ambos planetas suelen agruparse como si fueran gemelos.

El gran asterisco: materiales bajo condiciones que casi no podemos reproducir

El propio equipo reconoce un límite importante: todavía entendemos mal cómo se comportan muchos materiales en las condiciones “exóticas” del interior planetario. En laboratorio se pueden recrear presiones enormes durante instantes o en volúmenes minúsculos, pero no es sencillo medir propiedades con la precisión que estos modelos desearían. Ese desconocimiento puede mover la aguja del resultado.

Por eso, los autores plantean mejorar el modelo incorporando otras moléculas probables en el interior, como metano y amoníaco, que no solo afectan a la composición, sino también a la conductividad, la densidad y la dinámica interna. Es el tipo de detalle que, en una receta, cambia la textura final: no es lo mismo espesar con harina que con maicena.

Por qué todo esto apunta a misiones dedicadas

Ravit Helled resume el trasfondo con una idea incómoda: con los datos actuales no se puede distinguir con claridad si Urano y Neptuno son “más hielo” o “más roca” en términos de proporciones internas. En ciencia planetaria, eso se traduce en una conclusión práctica: hacen falta misiones espaciales dedicadas a estos mundos para medir con más detalle su gravedad, su campo magnético, su atmósfera y, si es posible, su estructura interna.

El valor del nuevo modelo computacional es que podría servir como herramienta relativamente “neutral” para interpretar futuros datos. Cuando llegue nueva información —de sondas, orbitadores o incluso mediciones remotas más avanzadas— habrá un marco listo para probar qué interior encaja mejor sin depender tanto de suposiciones heredadas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Durante años hemos visto a delfines nadar hacia las orcas sin miedo. Ahora la tecnología ha averiguado por qué

Durante años hemos visto a delfines nadar hacia las orcas sin miedo. Ahora la tecnología ha averiguado por qué

Hasta hace muy poco, la biología marina tenía una regla no escrita sobre el Pacífico Norte: las orcas son las reinas y los delfines, en el mejor de los casos, una molestia; y en el peor, comida para las orcas. Sin embargo, la ciencia apunta a que estábamos realmente equivocados, puesto que las orcas y los defines blancos han sido pillados colaborando entre ellos. 

No es una interacción casual. Es una estrategia de caza coordinada para atrapar al escurridizo salmón Chinook, documentada por primera vez gracias a un arsenal tecnológico que incluye drones y cámaras subjetivas adosadas a los propios animales. 

Esto es algo que ha quedado evidenciado en el estudio liderado por Sarah Fortune, se centra en las orcas residentes del norte, una subespecie que se alimenta exclusivamente de pescado. Durante cinco años, los investigadores estuvieron observando algo que no encajaba: los delfines no huían de las orcas, sino que nadaban deliberadamente hacia ellas. 

Una colaboración con sentido. Y es que estas dos especies, que en teoría deberían estar bien alejadas, no colaboran porque si, sino por un bien común: el alimento. Los delfines, más rápidos y ágiles, actúan como ojeadores, localizando los bancos de salmones. Las orcas, con su fuerza bruta y tamaño, se encargan de la captura final de los ejemplares más grandes, imposibles de cazar para un delfín en solitario.

¿El resultado? Un festín compartido. Se ha observado a las orcas dividiendo las presas y permitiendo que los delfines se alimenten de las sobras y trozos que se desprenden, en una suerte de "pacto de no agresión" alimentario. Algo que escapa de todo lo que sabíamos hasta ahora. 

Cómo lo han descubierto. Observar esto desde un barco es algo realmente complicado, ya que ver lo que pasa debajo del agua es casi imposible. Para lograrlo, el equipo de Fortune utilizó etiquetas CATS. Unos dispositivos se adhieren a las orcas mediante ventosas y que son como cajas negras biológicas. 

Tienen la capacidad de grabar vídeo en alta definición en las profundidades marinas, captan la acústica a su alrededor y también cuentan con acelerómetros y magnetómetros, para registrar profundidad y movimiento. Todo un set tecnológico que permitió obtener 258 eventos documentos de delfines interactuando cerca de las cabezas de las orcas. 

Un modo silencio. El análisis acústico reveló el dato más fascinante del comportamiento inteligente de estos cetáceos. Las orcas, famosas por su complejo uso de la ecolocalización para cazar, reducían sus propios clics y silbidos cuando los delfines estaban presentes.

La hipótesis de los investigadores es clara: las orcas están subcontratando el sonar. Dejan que los delfines hagan el trabajo ruidoso de encontrar al pez y ellas se limitan a escuchar y seguir a sus "perros de caza" marinos. Es una optimización de energía brutal. Las orcas se ahorran el coste metabólico de buscar y los delfines obtienen protección y acceso a salmones gigantes que sus mandíbulas no podrían procesar solas.

La crisis del salmón. Esta alianza puede que no sea del todo natural, sino que sea una adaptación forzosa a una situación de escasez de comida. Algo que ha hecho que dos depredadores tengan que aprender a tolerarse y cooperar para sobrevivir. 

Imágenes | Vidar Nordli-Mathisen 

En Xataka | Los tiburones están desapareciendo de la costa suroeste de Sudáfrica. Los científicos tienen una teoría: orcas

-
La noticia Durante años hemos visto a delfines nadar hacia las orcas sin miedo. Ahora la tecnología ha averiguado por qué fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí