11 de marzo de 2026

Microsoft quiere ponerle “papeles” a lo que vemos online para distinguir lo auténtico de lo generado por IA

pasaporte digital

La decepción impulsada por IA ya no es una rareza reservada para montajes torpes. Hoy convive con nosotros en el carrusel infinito de vídeos, imágenes y capturas que consumimos a diario. A veces se nota a simple vista, como cuando una foto manipulada se comparte desde cuentas oficiales y quien pregunta por su origen recibe respuestas burlonas. Otras veces pasa como el azúcar en el café: se disuelve y no la ves, pero está ahí, endulzando una narrativa. MIT Technology Review citaba recientemente cómo campañas de influencia difunden vídeos para desalentar el alistamiento en Ucrania, acumulando visualizaciones sin que el espectador medio tenga herramientas claras para orientarse.

En ese contexto, Microsoft ha movido ficha con un plan que pretende responder a una pregunta cada vez más básica: “¿De dónde sale esto y qué le han hecho por el camino?”. No promete decirnos si algo es verdadero o falso, que es justo donde el asunto se vuelve espinoso; su idea es ofrecer pruebas sobre la procedencia del contenido y sobre si ha sido alterado mediante herramientas de IA generativa.

La propuesta de Microsoft: un “pasaporte” para cada archivo

El planteamiento de la compañía, compartido con MIT Technology Review, se parece a un sistema de identidad para medios digitales. Piensa en un “pasaporte” que acompaña a una imagen o un vídeo: quién lo creó, con qué herramienta, cuándo se editó, qué cambios se aplicaron y si existen marcas técnicas que lo respalden. La analogía que usa Microsoft es muy visual: autenticar un Rembrandt. Para fiarte de un cuadro no basta con mirarlo; miras la procedencia, los documentos, los registros, el rastro de propietarios, las certificaciones. En internet, ese rastro suele perderse al primer pantallazo, reenvío o recorte.

Según explicó el equipo de investigación de seguridad de IA de Microsoft, evaluaron decenas de configuraciones posibles para documentar manipulación digital. En concreto, modelaron alrededor de 60 combinaciones de técnicas, probando cómo sobreviven en escenarios reales: cuando se eliminan metadatos, cuando el archivo se comprime, cuando sufre cambios leves o cuando alguien intenta manipularlo de forma deliberada para “engañar al detector”. El objetivo no es tener un truco perfecto, sino identificar qué mezclas de herramientas generan resultados lo bastante sólidos como para mostrarlos con confianza en una plataforma.

Tres pruebas de autenticidad: procedencia, marca de agua y huella digital

En el “kit” que Microsoft describe hay tres ideas que se complementan como un cinturón, tirantes y un nudo bien apretado: cada pieza por sí sola ayuda, juntas aguantan mejor el tirón.

La primera es la procedencia del contenido, que suele materializarse como un manifiesto o registro que documenta el historial del archivo. No es solo “quién lo hizo”, también “qué le ocurrió después”. Como el historial de revisiones de un documento compartido, pero aplicado a imágenes y vídeos, y pensado para sobrevivir al ecosistema de redes sociales.

La segunda es la marca de agua. Aquí conviene desterrar una idea: no hablamos del logotipo semitransparente en una esquina, sino de señales que el ojo humano no ve, pero que un sistema puede leer. Es como meter un hilo invisible en una prenda para comprobar que es original. Google, por ejemplo, empezó a incorporar marcas de agua en contenido generado por sus herramientas en 2023, algo que investigadores como Hany Farid (UC Berkeley) consideran útil en análisis forenses.

La tercera es la huella digital criptográfica o firma matemática. Si la marca de agua es un hilo, la huella es una especie de “ADN” generado a partir de características del contenido. Si cambias un fragmento, esa huella puede delatarlo. El problema es que, en el mundo real, las plataformas recortan, recomprimen y reescalan; si la huella es demasiado sensible, saltará por cambios inocentes. Si es demasiado tolerante, puede dejar pasar manipulación.

La propuesta de Microsoft insiste en combinar estas piezas y en apoyarse en estándares existentes como C2PA y Content Credentials, que ya buscan estructurar cómo se adjunta y se interpreta información de procedencia.

Qué funciona y qué falla cuando el contenido se comparte

La parte menos glamourosa de este debate es la más importante: casi nada viaja intacto por internet. Un vídeo pasa por un editor, se exporta, se sube, se comprime, se reenvía, se descarga, se vuelve a subir con otro audio. En cada paso, se puede perder información crítica. Por eso el equipo de Microsoft probó sus combinaciones contra fallos típicos, incluyendo uno muy común: que los metadatos se “strippeen” (se eliminen) al publicar en una red social.

Su conclusión es incómoda pero sensata: hay configuraciones que dan una señal robusta incluso en escenarios adversos, y otras que generan resultados tan frágiles que podrían crear más confusión que claridad. Si el sistema se equivoca con frecuencia, el público deja de creer en él, igual que dejamos de mirar una app del tiempo si falla cada dos días.

No es un detector de verdad: es un detector de manipulación

Eric Horvitz, director científico de Microsoft, subrayó algo que suele perderse en el ruido político: estos mecanismos no determinan si un contenido es “cierto”. Determinan si ha sido generado o modificado, y ayudan a responder “de dónde viene”. La diferencia es esencial. Una foto real puede estar sacada de contexto; una imagen editada puede no ser maliciosa; un vídeo generado con IA puede ser claramente satírico.

Este matiz también funciona como defensa frente a la acusación de que Big Tech se erige en árbitro de la verdad. En vez de decir “esto es falso”, la etiqueta diría algo más humilde y verificable: “este archivo se creó con tal herramienta” o “este fragmento se alteró aquí”. Es como un etiquetado nutricional: no te obliga a comer o no comer, te dice qué contiene.

La adopción real: incentivos, auditorías y presión regulatoria

Aquí aparece la gran pregunta: si todo esto es tan necesario, ¿por qué no está ya en todas partes? La respuesta huele a economía de la atención. Etiquetar contenido puede reducir su alcance si la gente lo percibe como menos “auténtico”, y eso choca con modelos basados en engagement. Hany Farid lo decía con crudeza: si los líderes de plataformas creen que poner “generado por IA” reduce interacción, no tienen incentivos para hacerlo de forma agresiva.

MIT Technology Review citaba una auditoría de Indicator que encontró una realidad decepcionante: solo una parte de publicaciones de prueba en plataformas como Instagram, LinkedIn, Pinterest, TikTok y YouTube aparecía correctamente etiquetada como generada por IA. Ese dato encaja con la sensación cotidiana de que las etiquetas, cuando existen, llegan tarde o llegan a medias.

Mientras tanto, los reguladores aprietan. Horvitz vinculó el trabajo a legislación como la Ley de Transparencia de IA de California, con entrada en vigor prevista para agosto de 2026, y al ritmo al que han avanzado modelos capaces de mezclar vídeo y voz con un realismo cada vez más convincente. También hay presión desde Europa con el AI Act y desde otros países con propuestas que obligan a alguna forma de divulgación.

Microsoft, por su parte, está en una posición singular: opera Copilot, controla Azure como infraestructura de acceso a modelos, posee LinkedIn y mantiene una relación estrecha con OpenAI. Aun así, Horvitz evitó comprometerse a aplicar todas las recomendaciones de forma uniforme en el propio ecosistema de Microsoft, hablando en cambio de que los equipos internos usarán el informe para orientar hojas de ruta y decisiones de ingeniería.

Riesgos de hacerlo mal: cuando la etiqueta se vuelve boomerang

Una idea potente del plan es admitir que un etiquetado imperfecto puede ser peor que ninguno. Si un sistema marca contenido real como “manipulado por IA” por una modificación mínima —un recorte, una ligera corrección de color, una compresión agresiva— el público puede acabar rechazando la señal completa. Se crea un “efecto alarma”: suena tanto que terminas ignorándola.

La investigación también menciona ataques “sociotécnicos”, que no solo explotan fallos técnicos sino reacciones humanas. Imagina una imagen auténtica de un evento político tenso. Alguien cambia un puñado de píxeles irrelevantes con una herramienta de IA. Si la plataforma solo tiene un detector burdo, podría clasificarla como “IA” y sembrar duda sobre el evento entero. En cambio, si combinas procedencia y marcas, podrías mostrar que la imagen es mayoritariamente real y señalar qué parte fue alterada. Es el equivalente a decir: “El recibo es auténtico, lo único retocado es una línea”.

La primera prueba seria: California y el pulso político en EEUU

El texto de MIT Technology Review anticipaba que la ley californiana será un test clave en Estados Unidos, aunque la aplicación puede complicarse por el contexto federal. Se mencionaba una orden ejecutiva del presidente Trump a finales de 2025 orientada a limitar regulaciones estatales consideradas “gravosas” para la industria, junto con una postura poco favorable a políticas contra la desinformación y la cancelación de subvenciones relacionadas con ese ámbito.

La paradoja es evidente: los mismos canales oficiales que deberían ser referencia de fiabilidad han compartido contenido manipulado con IA en ocasiones, y la propia revista señalaba usos de generadores de vídeo por parte del Departamento de Seguridad Nacional con tecnología de Google y Adobe para piezas comunicativas. Horvitz reconocía, con cautela, que los gobiernos no están al margen de la manipulación desinformativa, ni en EEUU ni fuera.

La propuesta de Microsoft no elimina el engaño sofisticado, pero sí aspira a recortar un gran “volumen de ruido”, dificultando que la manipulación casual o masiva pase desapercibida. Si funciona, no será como poner una cerradura imposible de forzar; se parecerá más a encender las luces del portal y colocar una mirilla: quien quiera engañar tendrá que esforzarse más, y mucha gente tendrá por fin una pista razonable para decidir si confía, duda o busca contexto.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Microsoft corrige 79 fallos y dos zero-days en el Patch Tuesday de marzo de 2026

Microsoft ha publicado las actualizaciones de Patch Tuesday de marzo de 2026 para corregir 79 vulnerabilidades, incluidas dos zero-days divulgadas públicamente. Sin el enlace o el texto original del artículo, no es posible confirmar con fiabilidad el listado de CVE, los productos exactos afectados ni el detalle del riesgo, por lo que la prioridad debe centrarse en validar fuentes y acelerar el ciclo de parcheo en entornos empresariales.

Entry image

Microsoft ha lanzado su ciclo de actualizaciones de seguridad de Patch Tuesday correspondiente a marzo de 2026, con un volumen total de 79 vulnerabilidades corregidas y la mención destacada de dos zero-days que, según el registro aportado, ya eran de conocimiento público. En términos de gestión de riesgo, este tipo de publicación tiene un impacto transversal porque suele afectar a una combinación de componentes ampliamente desplegados en empresas, desde Windows y Office hasta servicios y piezas de infraestructura que pueden estar presentes tanto en puestos de trabajo como en servidores.

Aun así, hay una limitación importante: el artículo de referencia aparece sin URL y no se ha incluido el texto. Eso impide verificar los detalles críticos con precisión, como qué CVE concretos se han corregido, cuáles están marcados como ‘explotados’ o ‘en explotación activa’, qué versiones y ediciones están afectadas, y qué mitigaciones temporales se recomiendan si el parcheo no puede aplicarse de inmediato. En el material proporcionado se menciona como ejemplo un posible zero-day de elevación de privilegios (EoP) en SQL Server identificado como CVE-2026-21262, pero sin la fuente original no se puede confirmar ni el alcance ni la severidad real.

En la práctica, cuando un ciclo incluye zero-days, las organizaciones suelen ajustar la priorización de despliegue. La pauta habitual es identificar primero los sistemas con mayor exposición: servidores o servicios Internet-facing, equipos con usuarios con privilegios elevados, y activos críticos para la continuidad del negocio. A continuación, conviene alinear el inventario (qué versiones de Windows, Office y otros productos Microsoft están realmente en uso) con los boletines oficiales y, si existen, con avisos de explotación o indicadores de compromiso.

Hasta disponer de la fuente verificable, la recomendación más prudente es tratar el ciclo como de alta prioridad operativa: validar el contenido a través del boletín oficial de Microsoft o del artículo original, preparar pruebas en un entorno controlado, y ejecutar un despliegue escalonado que empiece por los activos más sensibles. Si compartes el enlace o pegas el texto del artículo, puedo extraer los CVE confirmados, resumir productos afectados y traducir el impacto a acciones concretas de parcheo y verificación.

Más información

  • BleepingComputer: None

La entrada Microsoft corrige 79 fallos y dos zero-days en el Patch Tuesday de marzo de 2026 se publicó primero en Una Al Día.



☞ El artículo completo original de Hispasec lo puedes ver aquí

Las "zonas muertas" de GPS se están extendiendo por todo el mundo: la culpa la tienen unos inhibidores para confundir drones

Las "zonas muertas" de GPS se están extendiendo por todo el mundo: la culpa la tienen unos inhibidores para confundir drones

Todas las miradas están en el estrecho de Ormuz, por donde pasa el 20% del petróleo del mundo. El caos reina en este embudo de apenas 33km y hay algo que está contribuyendo a complicarlo todo mucho más: el GPS no funciona. No es un problema puntual, es algo cada vez más habitual que está teniendo consecuencias que van más allá de la propia guerra.

Caos en Ormuz (aún más). Cuentan en BBC hay cientos de barcos en la zona del estrecho de Ormuz y los sistemas de ubicación los sitúan en posiciones que no tienen ningún sentido; algunos están apilados unos sobre otros, otros forman círculos imposibles sobre la tierra... La causa es que sus coordenadas GPS han sido alteradas mediante algún tipo de inhibidor. Esto aumenta el riesgo de colisiones marítimas, especialmente si hay mala visibilidad.

Objetivo: confundir. En un completo reportaje del Wall Street Journal, cuentan que los inhibidores y falsificadores de señal GPS se han convertido en una herramienta imprescindible en zonas de conflicto como Ucrania y, ahora Irán, como se puede ver en este mapa. Lo que hacen es confundir a drones y municiones guiadas para que fallen.  

Funciona. El conflicto de Ucrania ha demostrado que estos sistemas funcionan. Según un informe entregado al departamento de defensa estadounidense, la precisión de la artillería Excalibur era del 70% cuando se empezó a usar en Ucrania, pero seis semanas después era sólo el 6% gracias a que "los rusos adaptaron sus sistemas de guerra electrónica para contrarrestarla" con inhibidores de GPS. Muchos de estos dispositivos son muy asequibles y caben en el bolsillo, lo que hace muy sencillo usarlos sobre el terreno.

Consecuencias. En 2024, un vuelo de American Airlines sobrevolaba Pakistán cuando empezó a sonar la alerta "pull up", que es lo que suena cuando el avión está demasiado cerca del suelo, pero la aeronave estaba a 32.000 pies de altitud. Fue una interferencia en el GPS. En abril del mismo año, la aerolínea Finnair suspendió sus vuelos a Tartu durante un mes. El motivo: Rusia. 

Las aerolíneas dependen mucho del GPS y estas interferencias a veces provocan fallos como el que contábamos al principio. También se han tenido que desviar vuelos a otros aeropuertos por este motivo, como pasó con el vuelo en el que viajaba Ursula Von Der Leyen en septiembre del año pasado. 

Las grietas del GPS. El Global Positioning System es un sistema de navegación satelital  creado por Estados Unidos en la década de los 60. Se creó para uso militar, pero ha acabado siendo parte de la infraestructura crítica de la economía digital. Existen otros sistemas similares que usan satélites como GLONASS (Rusia), BeiDou (China) y Galileo (Europa), pero el GPS es el más usado a nivel global.

Que dependamos tanto del GPS hace que cualquier degradación impacte en cascada sobre muchos servicios esenciales, pero es que además la señal tiene que viajar 20.000 kilómetros desde el satélite, por lo que cuando nos llega es muy débil. Es el caldo de cultivo perfecto para que sea extremadamente sencillo alterarlas. 

Soluciones. Las debilidades del GPS hace urgente la búsqueda de alternativas robustas para sectores críticos como el de la aviación. Existen los sistemas de navegación inercial que usan giroscopios y acelerómetros para calcular la posición y ya se usan en la industria aeroespacial, en defensa y vehículos autónomos. También  se está desarrollando un sistema que usa sensores cuánticos que se orientan con el magnetismo terrestre y se usan cámaras combinadas con algoritmos de IA para "leer" el terreno. 

Sin embargo, a pesar de las debilidades, el GPS sigue siendo el sistema más potente de todos por su ubicuidad y precisión. Estos sistemas no cubren todo el abanico, por lo que la tendencia es usar varias fuentes para cubrir estas carencias.

En Xataka | Avisador, detector e inhibidor de radar: qué es legal, qué no y por qué me puede multar la DGT esta Semana Santa

Imagen | GPSjam.org

-
La noticia Las "zonas muertas" de GPS se están extendiendo por todo el mundo: la culpa la tienen unos inhibidores para confundir drones fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

La buena noticia es que los modelos de IA son cada vez más potentes. La mala es que todos acaban diciendo lo mismo

La buena noticia es que los modelos de IA son cada vez más potentes. La mala es que todos acaban diciendo lo mismo

Tenemos inteligencia artificial. Lo que no tenemos es diversidad artificial. Esa es la conclusión a la que han llegado un grupo de investigadores que hicieron un test relativamente sencillo: preguntaron un montón de cosas a 25 modelos de IA distintos para ver qué respondían. Y eso es lo malo: que respondían cosas demasiado parecidas.

"Mente-colmena artificial". Científicos de la Universidad de Washington, la Universidad Carnegie Mellon o la Universidad de Stanford, entre otras instituciones, han publicado un interesante estudio conjunto. En él desvelan cómo tras diversas pruebas parece claro que aunque los modelos de IA cada vez son más avanzados, el problema es que todos ellos parecen haber desarrollado una especie de "mente-colmena artificial": da igual lo que les preguntes, contestan de forma sospechosamente parecida.

Captura De Pantalla 2026 03 10 A Las 15 01 41 Al preguntar a todos esos modelos "qué era el tiempo", muchos respondieron con la frase "el tiempo es como un río", mientras que otro grupo de modelos contestaron que "es como un tejedor".

El tiempo es un río. Una de las preguntas que se les hizo a estos modelos es "¿Qué es el tiempo?", y aunque esa pregunta da margen claro para respuestas muy distintas, lo preocupante es que no lo fueron. Varios modelos contestaron con la frase "el tiempo es un río" para luego desarrollarla un poco, mientras que otros contestaban con "el tiempo es un tejedor (de momentos)". Esa similitud a la hora de responder resultó ser una constante. 

La ilusión de la abundancia. Creemos que cuando consultamos algo con una IA accedemos a todo un mundo de posibilidades conversacionales, pero el estudio revela que en realidad estamos ante un sistema que propone salidas muy similares. Aunque los modelos de lenguaje prometen creatividad sin límites, tienden a converger en esa mente-colmena donde la diversidad se sacrifica para lograr la coherencia estadística. Es razonable, sobre todo teniendo en cuenta que los grandes modelos de lenguaje se basan en el concepto de transformer, un sistema probabilístico que trata de encontrar la "mejor" palabra siguiente según nos va respondiendo.

Mismo guión. Los investigadores crearon un conjunto de datos a gran escala con 26.000 consultas de usuarios reales que teóricamente permitían a los modelos generar múltiples respuestas válidas y creativas. Llamaron a ese conjunto de datos "Infinity-Chat" y se dividieron las preguntas en seis categorías principales y 17 subcategorías.

IA, te repites más que un disco rallado. Durante las pruebas se observó que un mismo modelo tiende a repetirse a sí mismo, generando respuestas muy similares. De hecho, incluso cuando se utiliban parámetros especiales para las preguntas diseñadas para fomentar la diversidad, se producía el mismo efecto. Es lo que los investigadores llaman el "colapso inter-modelo".

Demasiado parecidos. Esas pruebas fueron dejando claro que la similitud semántica, lo parecidas que eran las respuestas de los distintos modelos, era preocupante. Según el estudio esa similitud osciló entre el 71% y el 82%, y en algunos casos ciertos modelos llegaron a generar párrafos idénticos palabra por palabra. 

El problema del entrenamiento. No es ya solo que todos generan texto de forma parecida por su diseño, sino que hay también un problema de entrenamiento. Los autores sugieren que esa homogeneidad de las respuestas se podría deber a varias razones: 

  1. Las fuentes de datos de entrenamiento acaban siendo compartidas: los modelos se entrenan con "datasets" parecidos y por ejemplo se basan en textos y conocimiento similares que proceden por ejemplo de la Wikipedia o de un conjunto de libros muy parecido.
  2. Efecto de contaminación por datos sintéticos generados por otras IAs: además usan textos sintéticos generados por otros modelos de IA. 
  3. Recompensas: los modelos usados para recompensar a estos modelos están calibrados para premiar cierta noción de "consenso" de calidad. Así pues, se castiga la diversidad creativa e individual. Se "educa" a las IAs para que sean precisamente muy parecidas entre sí.

Problemón a la vista. Todo ello hace que los investigadores adviertan explícitamente sobre dos riesgos claros al usar estos modelos de IA.

  1. Pensaremos lo mismo: si los usuarios no paramos de usar modelos de IA que nos contestan básicamente lo mismo, nuestras propias formas de pensar sobre esos temas y problemas se "homogeneizarán", y hará que también nuestras respuestas sean más uniformes.
  2. Reducción de puntos de vista: el otro peligro se deriva del primero: si la IA acaba convergiendo y respondiendo lo mismo, se eliminan puntos de vista. Aquí los sesgos por ejemplo del mundo occidental se harán patentes en modelos occidentales (ChatGPT, Gemini, Claude), y lo mismo ocurrirá con los orientales, por ejemplo. Eso provocaría la potencial supresión de visiones del mundo alternativas, de perspectivas y "miradas" diferentes a nuestra realidad.

Imagen | Solen Feyissa

En Xataka | La científica que hizo posible la IA que conocemos hoy acaba de recaudar 1.000 millones. Su nuevo objetivo es enseñarle a ver el espacio


-
La noticia La buena noticia es que los modelos de IA son cada vez más potentes. La mala es que todos acaban diciendo lo mismo fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Una IA rastrea 67.000 compuestos y señala 25 imanes capaces de aguantar altas temperaturas: el camino hacia motores sin tierras raras

noticia1_raw (1)

Cuando pensamos en un vehículo eléctrico, solemos imaginar baterías, puntos de carga y autonomía. Pero en el corazón de muchos motores hay una pieza igual de decisiva: el imán permanente. Es el componente que permite convertir electricidad en movimiento con gran eficiencia, como si fuera el “empujón constante” que mantiene al motor trabajando sin perder fuerza.

El inconveniente es conocido en la industria desde hace años: los imanes más potentes suelen depender de tierras raras, un grupo de elementos que encarecen la fabricación, complican la cadena de suministro y generan una dependencia exterior difícil de gestionar. En otras palabras, es como cocinar todos los días con un ingrediente que solo se consigue en una tienda lejana, cara y con horario imprevisible. Por eso, encontrar materiales magnéticos alternativos, sostenibles y abundantes se ha convertido en una prioridad estratégica para movilidad eléctrica, energía e incluso electrónica de consumo.

El giro práctico: buscar imanes como quien busca patrones en una biblioteca infinita

Un equipo de la Universidad de New Hampshire ha propuesto una vía distinta para acelerar esa búsqueda: usar inteligencia artificial para ordenar y analizar el conocimiento experimental ya publicado, en lugar de depender únicamente de prueba y error en laboratorio. Su resultado es una base de datos masiva, la Northeast Materials Database, que reúne 67.573 compuestos magnéticos y, dentro de ese océano, destaca 25 materiales que no se habían reconocido antes como imanes capaces de mantenerse activos a altas temperaturas.

Este matiz es clave. Muchos materiales pueden mostrar magnetismo en condiciones muy concretas, pero pierden esa propiedad cuando sube la temperatura. En aplicaciones reales —motores, generadores, sistemas industriales— el calor no es un detalle: es parte del paisaje. Un imán que se “desinfla” con el calor es como una pegatina que solo pega en invierno.

Según el equipo, el objetivo no es solo encontrar candidatos curiosos, sino recortar tiempos y costes en un campo donde el número de combinaciones posibles de elementos se cuenta por millones. La investigación se publicó en Nature Communications y está firmada por Suman Itani, Yibo Zhang y Jiadong Zang.

Qué hace diferente a esta base de datos: datos experimentales y una IA que “lee” artículos

Las bases de datos científicas existen desde hace décadas. Lo novedoso aquí está en el método para alimentarlas y convertirlas en una herramienta útil para descubrir. El grupo desarrolló un sistema de IA capaz de leer literatura científica, extraer datos experimentales relevantes y convertir ese contenido, disperso y a veces difícil de comparar, en un conjunto estructurado.

Pensemos en ello con un ejemplo cotidiano: es la diferencia entre tener miles de recetas en fotos borrosas y tenerlas todas transcritas, etiquetadas por ingredientes, tiempo de cocción y resultados. Cuando la información pasa a estar normalizada, se vuelve “buscable” y, sobre todo, comparable.

Con esos datos, entrenaron modelos para dos tareas muy concretas: determinar si un material es magnético y estimar la temperatura a la que deja de serlo. Esa temperatura de pérdida de magnetismo (conocida en física de materiales por conceptos como el punto de Curie en ciertos casos) es uno de los criterios decisivos para hablar de imanes útiles fuera del laboratorio.

Por qué importan los “imanes de alta temperatura” para coches y energías renovables

Los motores de tracción y muchos generadores trabajan en entornos térmicamente exigentes. En un coche, hay picos de demanda, frenadas regenerativas, condiciones ambientales variadas y calor acumulado. En un aerogenerador o en sistemas industriales ocurre algo parecido: el rendimiento real se decide bajo estrés, no en condiciones ideales.

Un material que conserve un magnetismo fuerte a temperaturas elevadas puede traducirse en motores más compactos, con menos pérdidas y, potencialmente, más baratos. También abre la puerta a diseños que dependan menos de elementos escasos. El mensaje de fondo es directo: si el mercado logra alternativas viables a los imanes basados en tierras raras, se reduce la vulnerabilidad de precios y suministro, y se facilita la escalabilidad de tecnologías limpias.

El equipo de New Hampshire lo plantea con un enfoque de impacto: acelerar el descubrimiento de imanes sostenibles ayudaría a reducir la dependencia de tierras raras y a abaratar componentes clave en vehículos eléctricos y sistemas de energía renovable, con implicaciones para la fabricación local y la seguridad de suministro.

Un detalle importante: encontrar candidatos no equivale a tener el “imán perfecto”

Conviene mantener la mirada fría. Señalar 25 materiales prometedores no significa que mañana vayan a sustituir a los imanes actuales en motores comerciales. En materiales, el salto desde “candidato interesante” a “componente industrial” es una carrera de fondo.

Un imán útil necesita una combinación de propiedades: fuerza magnética, estabilidad térmica, durabilidad, facilidad de fabricación, coste razonable y disponibilidad de elementos. Es como elegir neumáticos: no basta con que agarren bien en seco, también tienen que funcionar bajo lluvia, durar kilómetros y no disparar el presupuesto.

El valor de esta investigación está en cómo reduce el espacio de búsqueda. En vez de explorar a ciegas millones de combinaciones, se parte de una selección basada en evidencias experimentales y modelos que priorizan lo más prometedor. Eso permite que los laboratorios concentren recursos donde hay más posibilidades de éxito.

La IA como herramienta científica: menos “pico y pala”, más brújula

Hay una idea que se repite en la ciencia de materiales moderna: el cuello de botella ya no es solo medir, sino decidir qué medir primero. En ese sentido, la IA en ciencia de materiales actúa como una brújula. No sustituye al laboratorio, pero ayuda a apuntar mejor.

El propio equipo reconoce que, a pesar de la existencia de muchos compuestos magnéticos conocidos, no se ha identificado un imán permanente completamente nuevo “aprovechable” a partir de ese conjunto. Ese dato ilustra lo difícil que es el terreno: la información está ahí, pero extraer una ruta práctica cuesta años. La propuesta de la Northeast Materials Database es convertir el conocimiento acumulado en una herramienta de exploración más rápida, reutilizable y ampliable.

Lo que viene después: del laboratorio a la industria, y un guiño a la educación

La investigación también deja caer un uso colateral interesante: el modelo de lenguaje utilizado podría servir para tareas más amplias, como convertir imágenes a formatos de texto enriquecido, algo relevante para modernizar y preservar colecciones documentales. Es un recordatorio de que muchas mejoras de IA nacen en un proyecto muy específico y luego encuentran aplicaciones inesperadas, como un buen cuchillo de cocina que termina sirviendo para todo.

En cuanto al respaldo institucional, el proyecto recibió apoyo de la Office of Basic Energy Sciences del Departamento de Energía de Estados Unidos, un detalle que suele indicar interés estratégico por tecnologías con impacto industrial y energético.

Si este enfoque se consolida, lo razonable es esperar más bases de datos experimentales alimentadas por IA, modelos más finos para predecir propiedades y, sobre todo, un proceso de innovación más continuo: iterar entre datos publicados, predicción, validación experimental y vuelta a entrenar. No es magia; es un ciclo de aprendizaje acelerado.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí