24 de febrero de 2026

La cámara de la NASA que permite “ver” el aire: así funciona el sistema SAFS

viento

Intentar captar el movimiento del aire con una cámara suena tan imposible como fotografiar el olor del café. El aire es transparente, pero sus cambios de densidad, su velocidad y sus turbulencias determinan si un avión despega con eficiencia, si un cohete soporta cargas extremas o si una nave se comporta como se espera en una maniobra crítica. Para diseñar vehículos más seguros, los ingenieros necesitan ver lo que normalmente está oculto: las estructuras del flujo, las ondas de choque y los fenómenos que aparecen cuando se vuela rápido, muy rápido.

La NASA lleva décadas persiguiendo ese objetivo en túneles de viento y laboratorios. El problema es que los métodos tradicionales para visualizar flujo no siempre son sencillos de desplegar, ni baratos, ni tolerantes a los cambios de configuración. En ese contexto aparece Self-Aligned Focusing Schlieren (SAFS), un sistema desarrollado en el Centro de Investigación Langley de la NASA por Brett Bathel y Joshua Weisberger, que busca simplificar un trabajo históricamente delicado sin perder capacidad de análisis, según explicó la propia agencia en una publicación fechada el 19 de febrero de 2026.

Qué es la técnica schlieren y qué significa “enfocada”

Cuando hablamos de imagen schlieren hablamos, en esencia, de convertir variaciones mínimas de densidad del aire en variaciones visibles de luz. Un ejemplo cotidiano ayuda: en un día caluroso, sobre el asfalto, se ven ondas que “tiemblan”. No es magia; son cambios de densidad del aire caliente que desvían ligeramente la luz. La schlieren lleva ese efecto a un terreno medible y controlado.

La variante conocida como focused schlieren imaging (schlieren enfocada) se ha usado durante aproximadamente 80 años para observar regiones concretas del flujo con más precisión y menos “ruido” que otros enfoques. Aun así, su montaje suele ser exigente: los sistemas clásicos requieren accesos a ambos lados del objeto de prueba y una alineación extremadamente fina. Es como colocar dos mosquiteras en extremos opuestos de una habitación y lograr que sus patrones coincidan a la perfección; un milímetro de desfase y la imagen se contamina de artefactos.

Esa complejidad no es solo una molestia: en investigación aerodinámica cada minuto de túnel cuenta. Si el montaje se alarga días o semanas, la productividad del centro baja, el coste sube y se limitan las campañas de prueba que pueden ejecutarse.

SAFS: una forma distinta de lograr el mismo objetivo

El planteamiento de SAFS se apoya en una idea elegante: sustituir parte del “trabajo mecánico” de alineación por propiedades ópticas del propio sistema. La clave es la polarización de la luz, un concepto que mucha gente ya usa sin pensarlo cuando se pone gafas de sol polarizadas para reducir reflejos. En lugar de dos rejillas separadas que deben estar perfectamente alineadas, SAFS utiliza una sola rejilla que cumple una doble función, apoyándose en la polarización para generar el efecto de enfoque y filtrado que antes exigía un montaje mucho más aparatoso.

Esta diferencia cambia la logística del laboratorio. Según la NASA, lo que antes podía requerir semanas de preparación pasa a configurarse en minutos. El sistema, descrito como compacto y de menor coste relativo, también permite ajustar sensibilidad, campo de visión y enfoque “sobre la marcha”, lo que en la práctica se traduce en menos reinicios y menos sesiones perdidas por pequeños golpes, vibraciones o cambios de condiciones.

Hay otro matiz relevante: al necesitar acceso a un solo lado del objeto que se está probando, el despliegue se vuelve más viable en instalaciones y bancos de ensayo donde el acceso por ambos lados es limitado. En aerodinámica experimental, esa restricción aparece más de lo que parece.

Menos artefactos, más información útil en túneles de viento

En visualización de flujo, ver “mucho” no siempre equivale a ver “bien”. Las imágenes pueden incluir estructuras que no pertenecen al fenómeno que se quiere estudiar: capas límite del túnel, ondas fuera de plano, o variaciones de temperatura fuera de la región de interés que se cuelan en la captura como sombras engañosas. La NASA destaca que, frente a la schlieren convencional, SAFS reduce este tipo de características irrelevantes, lo que facilita interpretar lo que de verdad está pasando alrededor del modelo.

Imagina intentar escuchar una conversación en una cafetería llena: el objetivo no es subir el volumen de todo, sino aislar la voz importante. SAFS busca algo parecido en el terreno óptico: aislar lo esencial del flujo para que el análisis sea más directo y menos dependiente de “adivinar” qué parte de la imagen es artefacto.

Esa limpieza visual se vuelve especialmente valiosa cuando se trabaja con condiciones extremas, como ondas de choque en regímenes supersónicos e hipersónicos, donde pequeñas diferencias importan y el margen de interpretación se estrecha.

Qué está estudiando la NASA con SAFS ahora mismo

La NASA sitúa a SAFS como herramienta para objetivos de eficiencia y seguridad, con casos concretos de uso. Uno de ellos es la captura de flow separation o separación de flujo en el High Lift Common Research Model, un modelo empleado para mejorar la capacidad de predicción del rendimiento en despegues y aterrizajes. La separación de flujo es, simplificando, cuando el aire deja de “pegarse” a la superficie del ala y se desordena; es un fenómeno con impacto directo en sustentación y control, particularmente en configuraciones de alta sustentación.

Otro ejemplo citado es el análisis de shock cell structures, esas “formas de diamante” que aparecen en plumas de escape, en pruebas con un modelo del Space Launch System (SLS). En motores y plumas supersónicas, comprender estas estructuras ayuda a interpretar cargas, ruido y comportamiento del chorro. En ingeniería, poder verlas con claridad equivale a pasar de una radiografía borrosa a una imagen nítida cuando se busca una fractura.

De laboratorio a adopción global y versiones comerciales

Uno de los indicadores de que una tecnología ha encontrado su sitio es que salga del círculo de quienes la inventaron. La NASA señala que SAFS ya ha sido adoptado por más de 50 instituciones en más de ocho países, con presencia tanto en universidades como en centros de investigación, citando ejemplos como la Universidad de Notre Dame y la Universidad de Liverpool. También indica que empresas han licenciado la tecnología y que están llegando al mercado versiones comerciales, un paso que suele marcar la transición desde prototipo de laboratorio a herramienta de uso habitual.

Este tipo de difusión es especialmente relevante en técnicas de medición: cuanto más accesibles sean, más comparables serán los resultados entre equipos y más rápido se iteran los diseños. En aerodinámica, donde una mejora de fracción de porcentaje puede traducirse en ahorro de combustible o margen de seguridad, esa rapidez de iteración pesa.

Reconocimientos y respaldo institucional

SAFS no solo ha llamado la atención por su enfoque técnico. Según la NASA, el sistema fue incluido en los R&D 100 Awards 2025 de la publicación R&D World, un listado seleccionado por un panel internacional de expertos. La agencia también afirma que SAFS recibió el reconocimiento de NASA Government Invention of the Year 2025, descrito como el máximo premio interno de la NASA para tecnologías destacadas.

Más allá del trofeo, estos reconocimientos suelen ser una señal de dos cosas: que la idea es sólida desde el punto de vista científico y que tiene potencial práctico fuera del entorno en el que nació.

La “innovación silenciosa”: simplificar sin perder potencia

En tecnología, tendemos a asociar avances con sistemas más complejos. SAFS apunta en la dirección contraria: quitar piezas, reducir dependencias de alineación, acortar tiempos muertos. En el día a día de un túnel de viento, esa simplificación puede ser tan valiosa como un nuevo sensor ultrarrápido, porque lo que se gana no es solo calidad de imagen, sino continuidad de trabajo.

Para el sector aeroespacial, disponer de una herramienta que haga más fácil capturar visualización de flujo a alta velocidad significa acelerar decisiones de diseño, verificar modelos computacionales con menos fricción y explorar configuraciones que antes no se probaban por el coste de preparación. La NASA enmarca el desarrollo dentro de sus programas de capacidades de ensayo y herramientas transformacionales orientadas a mejorar predicciones de rendimiento de aeronaves, lo que encaja con una estrategia más amplia: combinar simulación y experimento con datos cada vez más fiables.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Si no optimizas tu currículum, la IA lo filtrará dejándote fuera. Si usas la IA te dejará fuera un reclutador humano

Si no optimizas tu currículum, la IA lo filtrará dejándote fuera. Si usas la IA te dejará fuera un reclutador humano

El uso de IA en los procesos de contratación de personal está cada vez más extendido, tanto por parte de los departamentos de recursos humanos con el uso de filtrado automático ATS de candidatos (Applicant Tracking System) como por parte de los candidatos para, precisamente, superar los filtros de la IA.

No obstante, el uso de la IA para optimizar el currículum puede haber saturado a los reclutadores que buscan a candidatos que se diferencien del resto, no currículums clónicos.

El boom de los CV generados por IA. La implantación de sistemas de IA ha cambiado radicalmente la forma de encontrar empleo. Basta con copiar y pegar la descripción del empleo en ChatGPT, se obtiene un currículum optimizado para esa oferta concreta, lleno de palabras clave que coinciden exactamente con los términos que seleccionará el bot que espera al otro lado del botón Enviar.

Tal y como describían desde la plataforma de empleo tecnológico Manfred, esto genera que cada oferta reciba un aluvión de candidaturas idénticas, donde todos repiten los mismos términos. Según una encuesta de la consultora Hays de finales de 2024, el 40% de los profesionales ya utilizaba IA para su CV ese año, un 3% más que en 2023, y prevén que alcance el 80% en cinco años. Como resultado de ese incremento, los reclutadores reciben cientos de perfiles que pasan los filtros y parecen ser los candidatos ideales, pero fallan al primer vistazo humano.

Las empresas quieren contratar a personas. Tal y como recogía The Washington Post, los reclutadores han desarrollado la habilidad de identificar estos currículums "sintéticos". Patrones como la ausencia de sinónimos, repeticiones mecánicas o un tono excesivamente pulido delatan el uso de IA en su redacción. según expertos en recursos humanos. Según una encuesta llevada a cabo por la plataforma de asistencia al empleo Resume.io, el 49% de los gerentes de contratación rechaza los currículums sospechosos de ser generados por IA.

Los reclutadores entrevistados en el artículo del Washington Post se muestran partidarios de usa la IA como herramienta de asistencia para "cubrir huecos" y hacer más completa la redacción del currículum. Pero delegarla por completo a la IA les genera rechazo porque, en realidad, no saben a quién están contratando. "Si así es como te postulas y así es como trabajas, no quiero contratarte", afirmaba Joseph Eitner, director de recursos humanos de Eaton Capital Management, firma de inversión neoyorquina. "Quienes buscan empleo deberían usarla para enriquecer su trabajo. No deberían usar la IA para todo el proceso", declaraba Ron Sharon, director de seguridad de la información de la consultora financiera PTMA Financial Solutions.

En la misma línea se posicionaba Anthropic, uno de los principales desarrolladores de IA del mundo en sus ofertas de empleo, instando a sus empleados a no usar IA para completar el formulario de la candidatura con el objetivo de conocer mejor a sus candidatos y recalcando que no importaba si no tenían la formación adecuada ya que el formulario no iba a pasar ningún filtro de IA.

Un juego en el que todos pierden. El uso de IA en la elaboración de currículums y cartas de presentación se ha incrementado como respuesta a los sistemas de filtrado ATS. Los candidatos simplemente esperan superar el filtro inicial y avanzar el proceso de selección para llegar hasta la fase de entrevistas y verse cara a cara con un entrevistador. En este sentido, son las propias empresas y reclutadores quienes han creado al monstruo que ahora repudian.

De acuerdo a lo publicado por Forbes, el 82% de las empresas usa IA para escanear las solicitudes iniciales de los candidatos, generando una carrera entre algoritmos por optimizarse el uno para el otro. En el camino, el candidato pierde su "humanidad" pero la empresa también pierde su cultura y valores. No se puede culpar a los candidatos por adaptarse a una tecnología presente en buena parte de los procesos de selección de personal abiertos.

El proceso está roto. El 'Informe de Tendencias de búsqueda de empleo' del Q2 de 2025 de Huntr señala que el 85% de los candidatos que buscan un empleo tarda más de nueve meses en encontrar trabajo. Por su parte, un metaanálisis del sector reveló que el 63% se postula a más de 337 vacantes, de los cuales solo el 2% consigue llegar a entrevistarse con un reclutador humano. En LinkedIn, solo responden al 3,3% de las candidaturas.

Este rifirrafe constante agota a empresas y candidatos por igual, complicando la búsqueda de candidatos idóneos para los puestos vacantes. En la actualidad, las empresas están viviendo una contradicción en sus procesos de contratación, ya que reclaman adaptabilidad y actitud en sus candidatos, pero seguramente esos candidatos se desecharon en el primer filtro porque su CV no estaba optimizado por una IA.

En Xataka | Si tu silla cojea en una entrevista de trabajo, no es casualidad: están evaluando algo más que tu currículum

En Xataka | La última tendencia para bordar las entrevistas de trabajo: entrenar con ChatGPT como reclutador

Imagen | Unsplash (Vitaly Gariev)

-
La noticia Si no optimizas tu currículum, la IA lo filtrará dejándote fuera. Si usas la IA te dejará fuera un reclutador humano fue publicada originalmente en Xataka por Rubén Andrés .



☞ El artículo completo original de Rubén Andrés lo puedes ver aquí

Un relato de ciencia ficción económica ha hundido a Visa, Mastercard y American Express en bolsa. Y lo más inquietante es por qué

Un relato de ciencia ficción económica ha hundido a Visa, Mastercard y American Express en bolsa. Y lo más inquietante es por qué

Citrini Research, un hedge fund estadounidense ha publicado esta semana un texto escrito como si fuera un memorando macroeconómico de junio de 2028. No es una predicción, advierten sus autores. Es un ejercicio especulativo. Un escenario factible. Ha conseguido 24 millones de impresiones, y subiendo. No es un tuit anecdótico.

Los mercados han respondido hundiéndose. Visa ha caído un 4,4%. Mastercard, un 6,3%. American Express, casi un 8%. Y Capital One, un 8%.

Esto merece una explicación. Y no es la que parece.

Entre líneas. La reacción del mercado no se explica por el contenido concreto del informe de Citrini Research, que incluye argumentos tan discutibles como que los agentes de IA abandonarán las tarjetas para pagar con stablecoins en Solana. Antonio Ortiz, analistas tecnológico, lo ha señalado con precisión: parte del argumentario "es de primero de Twitter AI-hype". La idea de que un agente comparará veinte apps de comida a domicilio vibecodeadas para encontrar la más barata huele a caricatura del futuro.

Pero el pánico no es irracional. Es, precisamente, el pánico a no saber dónde está el límite.

Por qué es importante. Lo que ha movido el mercado no ha sido tanto la tesis sobre los pagos sino la tesis sobre la destrucción de valor. Y esa sí es sólida: muchos miles de millons de dólares de capitalización bursátil se han construido sobre un único cimiento: que los humanos somos lentos, impacientes, olvidadizos y leales por inercia. Que no comparamos precios. Que renovamos suscripciones que no usamos. Y que pagamos comisiones que no negociamos.

Un agente de IA no tiene ninguna de esas debilidades. Y eso lo cambia todo.

El telón de fondo. El informe de Citrini llega en un momento en que el llamado "saaspocalypse" ya no es metáfora. El WSJ recoge que los inversores están aterrados ante la posibilidad de que la IA acabe haciendo el trabajo que hoy facturan las grandes empresas de software. ServiceNow, Salesforce, las plataformas de gestión empresarial... todas construidas sobre la premisa de que las empresas necesitan software para que sus empleados hagan su trabajo. Pero... ¿qué ocurre cuando los empleados desaparecen? ¿Y si el propio software puede ser replicado en semanas con herramientas de codificación agéntica?

La ficción de Citrini empieza exactamente ahí, a principios de 2026, cuando un desarrollador competente puede reproducir la funcionalidad central de un SaaS de mercado medio en pocas semanas, y construye un escenario de colapso sistémico.

La gran pregunta. El argumento más inquietante del informe es que en todos los ciclos tecnológicos anteriores, la destrucción de empleo creó empleos nuevos que solo los humanos podían hacer. Esta vez, la IA ya está ocupando también esos puestos nuevos. Si eso es cierto (si la IA mejora más rápido de lo que los trabajadores pueden reorientarse) el mecanismo de autocorrección que siempre ha evitado que la destrucción creativa se convierta en destrucción a secas no funcionaría.

Ese es el escenario que los mercados han descontado esta semana, aunque sea de forma parcial y especulativa gracias a un creepypasta financiero.

Sí, pero. El escenario requiere asumir una velocidad de adopción que no está garantizada, una respuesta política completamente ausente y una ausencia total de nuevos sectores económicos. Ninguna de las tres condiciones está escrita en piedra. Además, como apunta Antonio, hay algo de histeria colectiva en la reacción: cada anuncio o "cuento de miedo epata, llama la atención y mueve a los inversores". Los mercados están operando con pánico ante lo desconocido.

Pero hay una diferencia importante entre decir "este escenario no ocurrirá" y decir "este escenario es imposible". Y esa diferencia es exactamente lo que tiene al mercado nervioso.

La señal de alarma. Lo más llamativo de esta semana es que un texto especulativo, escrito en formato de ciencia ficción económica, ha bastado para mover miles de millones en capitalización bursátil.

Eso dice mucho sobre el estado de la certidumbre en los mercados respecto a la IA: es prácticamente nula. Nadie sabe realmente cuánto vale una empresa cuyo moat es la fricción humana en un mundo donde esa fricción está desapareciendo.

El canario sigue vivo. Pero los inversores han dejado de fiarse del canario.

En Xataka | La IA prometió revolucionar todos los sectores. Solo ha revolucionado la programación mientras el resto sigue esperando

Imagen destacada | Avery Evans

-
La noticia Un relato de ciencia ficción económica ha hundido a Visa, Mastercard y American Express en bolsa. Y lo más inquietante es por qué fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

Cinco millones de ordenadores y 14 años de datos de Arecibo: así logró SETI aislar 100 posibles tecnofirmas alienígenas

Cinco millones de ordenadores y 14 años de datos de Arecibo: así logró SETI aislar 100 posibles tecnofirmas alienígenas

Durante más de dos décadas, millones de ordenadores de sobremesa alrededor de todo el mundo compartieron su potencia de cálculo mientras estaban 'en reposo' con un objetivo común. Este no era más que buscar firmas tecnológicas extraterrestres en el ruido del cosmos. Ahora, el equipo detrás de SETI@home ha publicado el análisis final de sus datos, cerrando un capítulo fundamental en la búsqueda de inteligencia extraterrestre. 

Un embudo cósmico. Los datos analizados por SETI@home provienen de observaciones realizadas a lo largo de 14 años utilizando el icónico Observatorio de Arecibo en Puerto Rico. Durante este tiempo, el proyecto funcionó recopilando datos mientras el telescopio era apuntado por otras investigaciones astrofísicas. 

La inmensa cantidad de datos grabados por este telescopio se dividió en pequeños paquetes que fueron distribuidos a través de internet mediante la plataforma BOINC. En este caso, más de cinco millones de voluntarios prestaron la potencia de cálculo de los procesadores de sus PC para analizar estas frecuencias en un segundo plano con el mítico salvapantallas en forma de gráficos con un pulso latente que coronó algunos PC de los años 2000. Todo esto gracias a un trabajo colaborativo que comenzaba instalando una pequeña aplicación y cediendo parte de la potencia de procesado. 

Lo que se vio. El resultado de toda esta información no fue otra que una barbaridad estadística. En concreto, se identificaron más de 12.000 millones de detecciones iniciales, y los voluntarios a partir de aquí buscaban picos de energía, pulsos de banda estrecha y señales con estructuras repetitivas en el tiempo. 

El análisis se centró en una banda de 2.5 MHz alrededor de la frecuencia de 1.42 GHz, conocida como la línea de transición del hidrógeno, considerada el "canal de radio" lógico para una civilización interestelar. 

La criba final. Encontrar una señal alienígena en esa montaña de datos requiere, primero, descartar nuestros propios gritos tecnológicos que tenemos en el espacio. La segunda fase del proyecto consistió en limpiar esos 12.000 millones de detecciones de la interferencia de radiofrecuencia. Y es que los radares de la aviación, las emisoras de televisión o incluso los teléfonos móviles ensucian constantemente el espectro de radio, no dejándonos ver lo que hay de fondo. 

Cómo se hizo. Lo verdaderamente interesante de este proyecto fue en cómo lograron separar el grano de la paja en un mar de millones de datos, puesto que los investigadores diseñaron algoritmos complejos con una técnica muy ingeniosa llamada 'birdies'. 

Los 'birdies' no son más que tecnofirmas extraterrestres simuladas por software que el equipo inyectó artificialmente en la base de datos. Su importancia radica en que simplemente sirven para probar la sensibilidad del sistema, ya que si los filtros antiruido borraban los 'birdies' o no lograban agruparlos, significaba que el algoritmo estaba fallando, ya que también estaría eliminando los posibles datos que apuntaban a vida extraterrestre. 

El resultado. De esta manera, los investigadores pudieron pasar de tener 12.107.039.965 en su base de datos a seleccionar a 100 señales concretas, que es donde se podría encontrar algún tipo de comunicación con un extraterrestre. Una tarea titánica de limpieza, y es donde radica uno de los puntos más importantes de toda esta investigación. 

El papel de China. El problema de todo esto es que el radiotelescopio de Arecibo en diciembre de 2020 impidió que la fuente original de los datos pudiera verificar estos hallazgos. Afortunadamente, el gigantesco radiotelescopio FAST en China, actualmente el más grande y sensible de su tipo en el mundo, ha tomado el relevo para la etapa final. 

De esta manera, con una base de datos de 100 señales y con 23 horas de tiempo de observación dedicado en el FAST se comenzó a reobservar las diferentes localizaciones. Y no es un proceso rápido, puesto que cada reobservación en el telescopio chino dura unos 15 minutos e incluye un lento escaneo con los 19 haces del receptor de FAST. Esto es algo fundamental, porque la sensibilidad que se obtiene en estas nuevas mediciones es sustancialmente mejor, alcanzando entre 2.0 y 2.5 veces la capacidad de los datos originales de Arecibo.

El desenlace. Después de todo esto la pregunta parece obvia: ¿Significa esto que hemos contactado finalmente con una inteligencia extraterrestre? Hay que ser sinceros y rotundos: no. Hasta la fecha, ninguna de las señales analizadas o reobservadas ha demostrado ser una tecnofirma alienígena repetible o concluyente. 

Sin embargo, desde el punto de vista tecnológico y astronómico, SETI@home ha sido un triunfo histórico, puesto que no solo democratizó la ciencia computacional y fue pionero en el inmenso poder de la computación distribuida para las masas, sino que ha establecido un marco de trabajo de código abierto y nuevos límites de sensibilidad documentados para el futuro. El uso de inyección de "birdies" de alto nivel computacional para probar de extremo a extremo el software de análisis es, de hecho, un avance pionero en la radioastronomía.

Imágenes | SETI@Home Leo_Visions 

En Xataka | TRAPPIST-1 era el sistema solar más prometedor para buscar vida. Ahora nuestro gozo está en un pozo

-
La noticia Cinco millones de ordenadores y 14 años de datos de Arecibo: así logró SETI aislar 100 posibles tecnofirmas alienígenas fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes

IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes

Las acciones de IBM cayeron ayer cerca de un 13,2% en la Bolsa de Nueva York por una sencilla razón: Anthropic anunció que su modelo de IA, Claude, se podrá usar para modernizar sistemas que están basados en el legendario lenguaje de programación COBOL. Y eso es algo que precisamente parecía virtualmente imposible.

El lenguaje inmortal. Como indica la propia Anthropic, se estima que COBOL gestiona el 95% de todas las transacciones que se realizan en cajeros automáticos en EEUU. Un estudio de 2022 reveló que hay 800.000 millones de líneas de código de COBOL que siguen funcionando en sistemas de producción a diario.

Que ya casi nadie usa. Frente a esa realidad está otra igual de potente: casi nadie programa ya en COBOL, porque este lenguaje ya lleva con nosotros 65 años y ha acabado siendo reemplazado por lenguajes de programación modernos. La pregunta, por supuesto, es quién se encarga de esos millones de líneas de código si ya casi no hay programadores humanos que puedan hacerlo. La propia Anthropic lo dejó claro: "el número de gente que entiende COBOL se reduce cada año".

La IA al rescate. Ahí es donde entra Claude, la familia de modelos de IA generativa de Anthropic. Según esta empresa, Claude es capaz ya de "modernizar" COBOL a pesar de lo difícil y costoso que era llevar a cabo algo así. IBM lleva años intentándolo y de hecho aplicó esa misma receta, pero su IA (Watson) no parece haber conseguido demasiados progresos

Claude ayuda, pero debe haber un experto humano supervisando. En Anthropic prometen que su modelo de IA es capaz de leer todo el código base de un proyecto COBOL, identificar puntos de entrada, rutas de ejecución a través de subrutinas, mapear flujos de datos ydocumentar dependencias. Destacan, eso sí, que con una supervisión de un experto humano esto puede ayudar a modernizar y pulir todo tipo de sistemas basados en COBOL.

Sistemas críticos. Por supuesto, la pregunta es si la IA realmente logrará cumplir con esa promesa, sobre todo cuando hablamos de sistemas absolutamente críticos que se usan en transacciones financieras. Según Anthropic "la modernización del código legacy ha estado estancada durante años porque comprenderlo costaba más que reescribirlo. La IA invierte esa ecuación".

COBOL ya no es tanto el as en la manga de IBM. Es difícil saber cuánto del negocio de IBM dependía de sistemas COBOL, pero desde luego es una parte relevante. 

  • En 2025 la empresa obtuvo unos ingresos de 67.500 millones de dólares.
  • Aproximadamente el 45% proviene del software.
  • El resto es de consultoría e infraestructura, y en esta última división es donde se engloba el negocio de los mainframes IBM Z, muy ligado a sistemas COBOL.
  • Es razonable pensar que los ingresos que dependen de mainframes y COBOl se sitúan alrededor del 20% de los ingresos de IBM (y probablemente más en beneficios).

La IA y el SaaSpocalypse. Lo que ha pasado con IBM y COBOL es el último caso de un software que parecía tener futuro a largo plazo pero que con la IA puede no tenerlo tanto. Los inversores parecen ahora pensar que la IA va a lograr reemplazar muchos de estos sistemas y de plataformas SaaS. Es de hecho lo que se ha dado en llamar "SaaSpocalypse" en referencia a las caídas en bolsa de este tipo de empresas en los últimos meses: Salesforce, SAP, Microsoft, Adobe, Intuit o Atlassian han sufrido caídas notables en bolsa que rondan el 30-40% de media.

Pero. Este pánico inversor que se está viviendo contrasta con la realidad actual: los modelos de IA están demostrando poder hacer cosas sorprendentes en el ámbito de la programación, pero están muy lejos de ser perfectos. El código debe ser revisado, y la propia IBM ya lo dejó claro en un manual de formacion de 1979: 

"Una computadora nunca puede ser considerada responsable. Por lo tanto, nunca debe tomar una decisión administrativa".

IBM ya ha sobrevivido a otras crisis. El gigante azul ha sufrido un golpe en bolsa, pero es una de esas empresas tecnológicas que han logrado recomponerse y resistir todos los embates de una industria que normalmente es inmisericorde. La propia IBM también tiene sus soluciones de modernización para sus clientes, y algunos analistas tienen claro que de hecho IBM ganará más dinero que antes si COBOL finalmente desaparece.

En Xataka | Los viejos programadores nunca mueren, y Silicon Valley se está dando cuenta de ello

-
La noticia IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí