6 de marzo de 2026

Ziff Davis vende Speedtest y Downdetector a Accenture por 1.200 millones: qué cambia para los usuarios y por qué importa

imagen profesional y minimalista que representa el impacto del internet de alta velocidad en la obesidad

Speedtest y Downdetector son de esas herramientas que se usan casi sin pensar. Una para comprobar si tu conexión a internet va tan rápida como promete tu operador; la otra para confirmar si el problema es tuyo o si, en realidad, se ha caído medio planeta porque un servicio está fuera de línea. Pues bien: su propietario cambia. Ziff Davis anunció la venta de su división de conectividad, que incluye la empresa Ookla y sus productos más conocidos, a Accenture por 1.200 millones de dólares en efectivo, según informó Engadget y recogió Reuters.

El titular suena corporativo, pero el impacto potencial es muy real: cada vez que alguien mide la velocidad del Wi-Fi o consulta un pico de incidencias en una plataforma popular, hay datos, hábitos de uso y señales del estado de la red que pueden convertirse en un activo valioso. Es como si el termómetro que usas para saber si tienes fiebre pasara a manos de una empresa especializada en rediseñar hospitales.

Qué se vende exactamente: Ookla como fábrica de “señales” de red

La operación no es solo “dos webs populares”. El corazón de la compra es Ookla, la compañía detrás de Speedtest y Downdetector, que Ziff Davis adquirió en 2014 por unos 15 millones de dólares, de acuerdo con Reuters. Speedtest es, en la práctica, un estándar de facto para medir rendimiento de red: descarga, subida, latencia y, en algunos casos, variaciones como jitter. Downdetector, por su parte, funciona como un barómetro social y técnico: agrega reportes y patrones de incidencias para detectar si un servicio está fallando.

Juntas, estas plataformas crean una especie de “mapa del pulso” de internet. Imagina un panel de control que, en lugar de mostrar el tráfico de coches en una ciudad, enseña atascos digitales: dónde hay congestión, qué operadores rinden mejor en cada zona, qué aplicaciones sufren interrupciones y en qué momentos se disparan los problemas. Para una consultora tecnológica como Accenture, ese panel no es curiosidad; es materia prima para vender diagnóstico y mejora.

Por qué Ziff Davis se desprende de la división de conectividad

Ziff Davis es conocida por un portafolio de medios y marcas digitales. Reuters explicó que la venta le permitirá concentrarse en sus marcas “core”, como IGN, Mashable y Everyday Health. Este tipo de movimientos suele responder a una lógica clara: separar activos con perfiles de negocio distintos. Un medio vive de audiencias, publicidad, licencias y, a veces, suscripciones; una unidad de conectividad vive de datos, mediciones, acuerdos con operadores, productos empresariales y servicios B2B.

En paralelo, el contexto del sector editorial digital también pesa. Engadget señalaba la consolidación de marcas y decisiones recientes de personal en publicaciones del ecosistema de Ziff Davis. Sin entrar en lecturas dramáticas, sí hay un patrón que se repite en muchas empresas de medios: simplificar estructura y priorizar líneas de negocio donde el margen sea más predecible. En ese sentido, vender una unidad por 1.200 millones en efectivo es como cambiar una cartera de inversiones variada por un gran cheque que permite reorganizar prioridades.

El “por qué ahora”: 5G, pandemia y un negocio que maduró rápido

Hay un dato que ayuda a entender el tamaño del acuerdo: Reuters apuntó que la división de conectividad generó 231 millones de dólares en 2025. Y también explicó el viento a favor que tuvo la unidad: el despliegue de 5G y el aumento de demanda de ancho de banda durante la pandemia impulsaron el interés por medir calidad de red y entender el rendimiento real.

Traducido a la vida diaria, es como cuando de repente todos empezamos a cocinar en casa y una marca de sartenes pasa de “útil” a “imprescindible”. Más videollamadas, más streaming, más teletrabajo, más juegos online: la conversación dejó de ser “tengo internet” para convertirse en “qué tal va mi internet”. Y en esa conversación, Speedtest se convirtió en una prueba rápida, casi ritual, para confirmar sospechas.

Qué gana Accenture: la promesa de “inteligencia de red” para la era de la IA

Accenture describió la compra como un paso para construir servicios de “inteligencia de red” de extremo a extremo, “esenciales” para una transformación basada en IA, según citó Engadget. El lenguaje suena abstracto, pero se puede aterrizar con una metáfora: si una empresa quiere usar IA a gran escala, necesita carreteras digitales sin baches. La IA no solo vive en modelos y GPUs; vive en redes que conectan centros de datos, nubes, oficinas, fábricas y dispositivos.

Con datos como los de Ookla, Accenture puede reforzar una propuesta típica en grandes cuentas: medir, comparar, localizar cuellos de botella y recomendar inversiones. Para un operador o una gran empresa con miles de sedes, la diferencia entre una red “funciona” y una red “funciona bien” se nota en productividad, calidad de servicio y costes. Y en proyectos de transformación digital, disponer de señales de rendimiento en tiempo real o casi real es como tener un GPS que no solo te dice la ruta, sino también dónde están los accidentes y qué carriles están cerrados.

Lo que puede cambiar para usuarios: más continuidad que sobresaltos, al menos al principio

Una parte tranquilizadora del anuncio es operativa: el acuerdo puede tardar unos meses en cerrarse y, mientras tanto, Ziff Davis seguirá operando Speedtest y Downdetector, según Engadget. Eso sugiere que, de cara al usuario, no debería haber cambios bruscos inmediatos.

Aun así, conviene mirar el medio plazo con lupa. Cuando una herramienta masiva pasa a manos de una consultora, pueden darse tres escenarios. El primero es el más benigno: continuidad de producto, mejoras incrementales y mantenimiento de la experiencia actual. El segundo: integración gradual de funciones orientadas a empresa, con más foco en métricas avanzadas y paneles para clientes corporativos, mientras el usuario final ve pocos cambios. El tercero: cambios en condiciones de uso, modelos de monetización o integración más profunda con ofertas de servicios.

Aquí el punto sensible es la privacidad y el uso de datos. Speedtest y Downdetector se basan en recopilación de mediciones y reportes. Eso no significa automáticamente “vigilancia”, pero sí implica que el valor del negocio está en datos agregados y análisis. Lo razonable será vigilar cualquier actualización de políticas de datos cuando el traspaso se formalice, algo que suele comunicarse en términos y avisos dentro de las apps.

Implicaciones para el mercado: medición como poder

Que estas herramientas cambien de manos recuerda una idea clave: en internet, medir es tener influencia. Quien controla el termómetro, también influye en la conversación sobre la fiebre. Los rankings de rendimiento por ciudades, operadores o tipos de conexión pueden afectar reputación, decisiones de compra e incluso inversiones de infraestructura. También son útiles para reguladores, prensa y analistas que quieren entender cómo evoluciona la conectividad real, más allá de promesas comerciales.

Por eso, esta compra no solo es un movimiento financiero; es una señal de que la observabilidad de redes y la analítica de conectividad siguen ganando peso en la economía digital. En plena carrera por modernizar infraestructuras para soportar cargas intensivas —incluida la IA—, disponer de datos de calidad sobre “cómo se comporta internet en la vida real” es un activo estratégico.

Qué conviene observar a partir de ahora

La noticia, tal como la contaron Engadget y Reuters, deja varias pistas sobre lo que viene: un cierre que puede tardar meses, continuidad operativa durante la transición y una narrativa centrada en servicios de red para transformación empresarial. Para los usuarios, el mejor enfoque es práctico: seguir usando las herramientas como hasta ahora, pero estar atentos a cambios en la experiencia, nuevas integraciones y actualizaciones de términos. Para el sector, la pregunta interesante es cómo Accenture combinará este activo con su oferta de consultoría: si lo usará como producto independiente, como pieza de un paquete de servicios o como base para nuevas soluciones de monitorización y benchmarking.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país

EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país

Dario Amodei, CEO de Anthropic, publicó hace unas horas un comunicado en el que anunciaba algo insólito: el Departamento de Defensa (DoD) le ha confirmado que "hemos sido designados como un riesgo para la cadena de suministro para la seguridad nacional" de EEUU. Esta agencia cumple así la amenaza que planteó hace pocos días y convierte automáticamente a Anthropic, una de las mejores empresas IA del país (si es que no es la mejor) en una empresa paria. ¿Qué implicaciones tiene eso? Muchas y todas ellas enormes.

Veto a Anthropic. Esta designación hace que Anthropic tenga prohibido hacer negocios o desarrollar proyectos para el ejército de los EEUU. Eso ya es grave, pero no es solo por ejemplo el Pentágono el que no lo hará: cualquier empresa que trabaje con el Pentágono tiene también prohibido hacer uso de los servicios de IA de Anthropic para cualquier proyecto gubernamental. Estamos ante una decisión cuyos efectos colaterales pueden ser terribles para Anthropic. La pérdida de ingresos puede ser masiva, y si otras agencias federales siguen el ejemplo del Pentágono, Anthropic podría verse con muchos problemas para defender su viabilidad frente a sus competidores. Esa designación no es inmediata, y habrá un periodo de transición de seis meses para que el DoD migre a otros proveedores (como OpenAI).

Jamás se había hecho con una empresa nacional. El veto a Anthropic es absolutamente extraordinario, y esa designación como "riesgo para la cadena de suministro" era una medida históricamente reservada a adversarios extranjeros como Huawei. Al aplicar esta etiqueta a una empresa estadounidense, el DoD corta sus vínculos comerciales y marca a la compañía con un estigma, una especie de "letra escarlata" que podría ahuyentar a inversores y socios globales.

Choque ético. El núcleo del conflicto no es técnico, sino moral. Anthropic nació como escisión de OpenAI con el objetivo de evitar riesgos existenciales en el desarrollo de modelos de IA, y la compañía siempre se ha postulado como una gran defensora del alineamiento con los valores humanos. Su CEO, Dario Amodei, insistió en que su IA no podía usarse para vigilancia masiva o para el desarrollo de armas letales autónomas, pero eso ha chocado frontalmente con los estamentos gubernamentales y militares de EEUU, que querían un acceso prácticamente total y sin restricciones, salvo las que imponen la Constitución y las leyes de EEUU.

A los tribunales. Amodei ha expliado en su comunicado que peleará la decisión en los tribunales. Su argumento, explica, está en que ese estatuto 10 USC 3252 es una herramienta de protección, no de castigo. La defensa deberá centrarse en demostrar que el Departamento de Defensa no usó los medios menos restrictivos para garantizar la seguridad. Si lo logran podrían invalidar la designación, aunque el daño reputacional ya está hecho.

El dilema de la soberanía. ¿Puede una empresa privada estar por encima del Gobierno? El Pentágono argumenta que ningún proveedor puede colarse en la cadena de mando, y aquí hay una cosa cierta: que una IA tenga cláusulas de uso que limiten las operaciones militares es ceder la soberanía nacional a un algoritmo privado y a los términos de servicio de una junta directiva y de un CEO que no han sido elegidos democráticamente.

La amenaza del intervencionismo extremo. Esta insólita medida podría acabar sentando precedente. Si el Gobierno castiga a las empresas que hacen preguntas incómodas o plantean límites al uso de su tecnología, la innovación en IA podría cambiar de filosofía. Las empresas que quieran subsitir tendrían que hacerlo sin cuestionar las órdenes por puro miedo a la quiebra y la bancarrota.

Plazo de transición. Hay, eso sí, un plazo de seis meses otorgado para la transición y eso parece dejar claro que el Pentágono aún depende de la tecnología de Anthropic para operaciones actuales, como demostraron el secuestro de Nicolás Maduro o los actuales análisis de inteligencia del conflicto en Irán. Queda por ver cómo evolucionarán los acontecimientos, pero desde luego el panorama para Anthropic es preocupante. Y para el resto de empresas también, si efectivamente la justicia da la razón al Departamento de Defensa.

Imagen | Anthropic | Xataka con Freepik

En Xataka | Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio



-
La noticia EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

La adolescencia turbulenta de los planetas: ALMA revela secretos ocultos de mundos en formación

Un equipo internacional de astrónomos logró capturar imágenes de sistemas planetarios en una etapa crucial y hasta ahora poco explorada de su evolución: la adolescencia planetaria.

El descubrimiento forma parte del proyecto ARKS (ALMA survey to Resolve exoKuiper belt Substructures), que utilizó el telescopio Atacama Large Millimeter/submillimeter Array (ALMA), uno de los observatorios más avanzados del mundo para estudiar el universo frío.

El programa es liderado por el astrónomo chileno Sebastián Marino, investigador externo del Núcleo Milenio YEMS y académico de la Universidad de Exeter, e incluye una participación activa de investigadores del núcleo con base en la Universidad de Santiago de Chile (Usach).

Un eslabón perdido en la historia de los planetas

Los sistemas estudiados corresponden a discos de escombros, cinturones de polvo y fragmentos rocosos que permanecen alrededor de una estrella después de que sus planetas ya se han formado.

Esta fase puede compararse con la adolescencia de un sistema planetario: un período más avanzado que el de los discos protoplanetarios —donde los planetas aún se están formando—, pero todavía lejos de la estabilidad de sistemas maduros como nuestro propio Sistema Solar.

“A menudo observamos las ‘fotos de bebé’ de los planetas en formación, pero la adolescencia planetaria era el eslabón perdido”, explica la astrónoma Meredith Hughes, co-investigadora principal del proyecto.

En nuestro sistema, esta etapa está representada por el Cinturón de Kuiper, una región más allá de la órbita de Neptuno que conserva rastros de colisiones violentas y migraciones planetarias ocurridas hace miles de millones de años.

Discos tenues, pero estructuras sorprendentes

Los discos de escombros son extremadamente débiles —cientos o incluso miles de veces menos luminosos que los discos donde nacen los planetas—, lo que los hace muy difíciles de observar.

Gracias a la extraordinaria resolución de ALMA, el equipo ARKS logró revelar una gran diversidad de estructuras en estos sistemas, incluyendo:

  • anillos múltiples
  • halos extendidos
  • bordes abruptos
  • asimetrías
  • arcos
  • cúmulos de material

“No estamos viendo simples anillos, sino sistemas complejos y dinámicos que revelan una etapa violenta en la historia de los planetas”, señala Marino.

Participación clave de investigadores YEMS–Usach

El proyecto cuenta con una importante participación de científicos del Centro CIRAS y el Departamento de Física de la Usach, entre ellos Sebastián Pérez, académico Usach y director alterno de YEMS, investigador del proyecto; Philipp Weber, investigador postdoctoral YEMS–Usach y miembro del equipo ARKS; y Fernando Castillo, estudiante del Magíster en Astrofísica YEMS–Usach, participante en el análisis científico.

Los Una de las reuniones entre Sebastián Marino, Philipp Weber y Sebastián Pérez en USACH. Cerca del comienzo del proyecto en el año 2023.

Esta colaboración refuerza el papel del núcleo YEMS como un actor relevante en investigaciones de frontera sobre la formación y evolución de sistemas planetarios.

Un misterio inesperado en uno de los discos

Uno de los hallazgos más intrigantes del proyecto fue la observación de una fuerte asimetría en uno de los discos de escombros: una acumulación localizada de rocas y polvo, similar a una nube densa dentro del disco.

Este tipo de estructura es difícil de explicar, ya que en esta etapa los discos suelen presentar formas más simétricas.

Para abordar el enigma, investigadores YEMS–Usach lideraron uno de los artículos científicos centrales del proyecto, proponiendo una explicación basada en la interacción entre los escombros sólidos y el gas residual aún presente en el sistema.

El estudio plantea que podrían formarse vórtices de escombros, capaces de concentrar material sólido durante largos períodos.

“Estas observaciones nos obligan a repensar el rol que puede jugar incluso una cantidad mínima de gas en discos que creíamos casi completamente dominados por sólidos”, explica Pérez.

Por su parte, Weber añade que comprender estas estructuras también podría ayudar a estimar la cantidad real de gas presente en estos sistemas, incluso cuando parte de él no puede detectarse directamente.

Galería ARKS de discos de escombros
Galería ARKS de discos de escombros observados por ALMA. Los tonos ámbar destacan la distribución del polvo, mientras que el azul indica la presencia de gas monóxido de carbono. Crédito: Sebastian Marino, Sorcha Mac Manamon y la colaboración ARKS.

Resultados clave del proyecto ARKS

Entre los principales resultados se destacan:

  • Mayor resolución observacional: ARKS representa una de las observaciones más detalladas de discos de escombros realizadas hasta ahora.

  • Juventud turbulenta: cerca de un tercio de los discos muestra subestructuras claras, como múltiples anillos.

  • Diversidad inesperada: algunos discos presentan configuraciones complejas, mientras otros evolucionan hacia cinturones más amplios y suaves.

  • Gas sobreviviente: varios sistemas contienen gas residual que podría influir en la química y dinámica planetaria.

  • Datos abiertos: todas las observaciones y productos del proyecto están disponibles públicamente.

¿Es nuestro Sistema Solar la norma o la excepción?

Los resultados sugieren que esta etapa adolescente de los sistemas planetarios podría estar marcada por migraciones planetarias, colisiones gigantes y reconfiguraciones orbitales intensas, procesos similares a los que habrían ocurrido en los primeros tiempos del Sistema Solar.

“Estos discos registran una época en que las órbitas planetarias estaban siendo reorganizadas de forma caótica”, explica el astrónomo Luca Matrà, co-investigador del estudio.

Mirando hacia el futuro

El legado científico del proyecto ARKS permitirá identificar planetas jóvenes aún invisibles y comprender mejor cómo se forman y evolucionan las familias planetarias.

“Es como agregar las páginas faltantes al álbum familiar del Sistema Solar”, concluye Hughes.

La entrada La adolescencia turbulenta de los planetas: ALMA revela secretos ocultos de mundos en formación se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

NVIDIA se va a gastar 4.000 millones de dólares en empresas de fotónica. Se está preparando para lo que viene

NVIDIA se va a gastar 4.000 millones de dólares en empresas de fotónica. Se está preparando para lo que viene

NVIDIA no da puntada sin hilo. A finales de agosto de 2025 la compañía liderada por Jensen Huang anunció que en 2026 sus plataformas de inteligencia artificial (IA) de última generación utilizarán interconexiones fotónicas para alcanzar mayores velocidades de transferencia entre clústeres de GPU. Este anuncio llegó durante la conferencia especializada en ingeniería de semiconductores y computación de alto rendimiento 'Hot Chips', que se celebró en Palo Alto (California), y fue tan solo el preludio de lo que estaba por llegar.

Y es que esta misma semana NVIDIA ha desvelado que va a invertir 2.000 millones de dólares en Lumentum, y otros tantos en Coherent. Estas dos empresas tienen algo muy importante en común: están especializadas en la puesta a punto de tecnologías fotónicas. Poco después de que NVIDIA confirmase su interés en ellas, las acciones de estas dos compañías subieron un 5 y un 9% respectivamente. Y es que la compañía liderada por Jensen Huang se ha comprometido a comprar productos a Lumentum y Coherent por varios miles de millones de dólares, y también a utilizar sus soluciones avanzadas de láser y sus tecnologías de redes ópticas.

La fotónica es el respaldo que necesitan los semiconductores de vanguardia

La mayor parte de los diseñadores y fabricantes de circuitos integrados está trabajando en el desarrollo de la fotónica del silicio. Douglas Yu, un ejecutivo de TSMC con responsabilidad en el ámbito de la integración de sistemas, explicó en septiembre de 2023 con mucha claridad qué capacidad disruptiva tiene esta tecnología: "Si conseguimos implementar un buen sistema de integración de la fotónica del silicio desencadenaremos un nuevo paradigma. Probablemente nos colocaremos en el inicio de una nueva era".

La fotónica del silicio es una disciplina que en el ámbito que nos ocupa persigue desarrollar la tecnología de este elemento químico para optimizar la transformación de las señales eléctricas en pulsos de luz. El campo de aplicación más evidente de esta innovación es la implementación de enlaces de alto rendimiento que, sobre el papel, pueden ser empleados tanto para resolver las comunicaciones entre varios chips como para optimizar la transferencia de información entre varias máquinas.

En los clústeres de IA miles de GPU deben trabajar al unísono, por lo que es imprescindible conectarlas empleando enlaces de alto rendimiento

Las tecnologías de empaquetado avanzado con las que trabajan los principales fabricantes de semiconductores, como TSMC, Intel o Samsung, se pueden beneficiar mucho de un mecanismo de comunicación entre chips de altísimo rendimiento. Y los grandes centros de datos en los que es necesario conectar una gran cantidad de máquinas, también. No obstante, hay una disciplina en particular que tiene una proyección de futuro apabullante y a la que le vendría de maravilla erigirse sobre las ventajas que propone la fotónica del silicio: la IA.

Esta es, precisamente, la apuesta de NVIDIA. En los clústeres de IA miles de GPU deben trabajar al unísono, por lo que es imprescindible conectarlas empleando enlaces de alto rendimiento. Es posible resolver este desafío utilizando cables de cobre tradicionales o módulos ópticos, pero estas dos soluciones introducen en la infraestructura ineficiencias muy importantes. Las más problemáticas son la pérdida de energía y los cuellos de botella. La transferencia de datos puede llegar a consumir hasta 30 vatios por puerto, lo que incrementa la disipación de energía en forma de calor y aumenta la probabilidad de que se produzca un fallo.

Además, la latencia limita la escalabilidad de los clústeres a medida que se incrementa el número de GPU de los centros de datos. Para resolver estas ineficiencias NVIDIA va a integrar los componentes ópticos que requieren las interconexiones fotónicas en el mismo encapsulado del chip de conmutación. Esta tecnología se conoce como CPO (Co-Packaged Optics) y consigue reducir el consumo de energía a tan solo 9 vatios por puerto. Además, minimiza la pérdida de señal y mejora la integridad de los datos. Pinta realmente bien.

NVIDIA ha confirmado que integrará la tecnología CPO en sus plataformas de interconexión Quantum-X InfiniBand y Spectrum-X Ethernet durante 2026. No obstante, hay algo importante que merece la pena que no pasemos por alto: CPO no va a ser un extra. Cuando llegue se afianzará como un requisito estructural de la próxima generación de centros de datos para IA en un claro intento de incrementar la competitividad de las plataformas de hardware para IA de NVIDIA.

Imagen | Generada por Xataka con Gemini

Más información | Reuters

En Xataka | Intel y TSMC lideran la revolución de los chips fotónicos. Su problema es que China acaba de meterse de lleno en esta guerra

-
La noticia NVIDIA se va a gastar 4.000 millones de dólares en empresas de fotónica. Se está preparando para lo que viene fue publicada originalmente en Xataka por Laura López .



☞ El artículo completo original de Laura López lo puedes ver aquí

La IA está volviendo a poner de moda algo que creíamos que solo era para friquis: la línea de comandos

La IA está volviendo a poner de moda algo que creíamos que solo era para friquis: la línea de comandos

Al principio fue la línea de comandos.

Era 1982, quizás 1983, y vi por primera vez un ZX Spectrum 48K. Aquello me fascinó no solo por el hecho de los ruidos y pitidos y colores y juegos cutres y maravillosos, sino porque tú escribías algo en pantalla en modo texto y de repente pasaban cosas. Yo acabaría teniendo un C64, que por supuesto era mucho mejor ;) pero esa es otra historia.

Luego, un par de años después, visita personal al departamento de Informática de El Corte Inglés, que era uno de los pocos sitios donde uno podía no ya ver ordenadores, sino tocarlos. Aquello era como las tiendas Apple de ahora, y preadolescentes y no tan preadolescentes acudían allí no para ver máquinas, sino para sentirlas. 

C64 Hola, viejo amigo.

Allí había PCs, claro. Aburridos y grises y aun así también maravillosos. Y lo primero que hacían al encenderse era preguntar la fecha y la hora para ajustar sus relojes internos, y yo alucinaba y pensaba en mi inocencia "madre mía qué listo es que pregunta la fecha y hora para estar súper actualizado". Y acto seguido, por supuesto, aparecía el logo de MS-DOS y aquel prompt terrible y mágico a la vez (o uno parecido, porque dudo que tuvieran disco duro):

C:\

Yo era pequeño, pero ya hacía tiempo que la interacción hombre-máquina estaba dominada por esa tecnología: la línea de comandos. Tú escribías, la máquina respondía. Lo hacían los sistemas UNIX antes, los "sistemas operativos" del Spectrum o el C64 después, y desde luego lo hacía también ese MS-DOS que parecía alucinante porque una vez más yo, en mi inocencia, no sabía aun que por ahí ya andaba un loco visionario genial que estaba vendiendo unas pequeñas máquinas sencillamente alucinantes con pantalla de 7 pulgadas que te recibían con un "Hello, I'm Macintosh".

Todo cambió (bastante) rápido y de repente la línea de comandos se volvió algo incómodo, tosco, obsoleto. Todo tenía que ser visual. Ventanas y elementos gráficos fueron evolucionando para que escribiéramos menos e hiciéramos clic (y no digamos scroll) mucho más. Y en los últimos 30 años no hemos parado de hacer eso y de defender que la interfaz gráfica era perfecta para los humanos y para la mayoría de escenarios en los que tenemos que hablar con nuestras máquinas.

Y lo era. Y lo es. Pero la IA ha cambiado eso.

Hola de nuevo, CLI

La explosión de la IA generativa ha dado un giro de 180 grados a esta situación. Es cierto que durante estos últimos años hemos usado la IA a través (sobre todo) de un navegador o de una app móvil que en realidad era un navegador embebido, pero con el tiempo hemos visto que si queríamos que la IA hiciera cosas por nosotros, había un problema. 

Que a la IA le cuesta mucho ver y trabajar con una interfaz gráfica de usuario

Pero al mismo tiempo hubo quien se dio cuenta de lo que la IA hacía como los ángeles era trabajar con un intérprete de línea de comandos o CLI. De repente tenía sentido volver a usar la terminal o consola de nuestro ordenador, porque la IA se sentía en casa con ella. No tenía que reconocer e interpretar la pantalla: solo tenía que leerla, y eso era maravilloso.

Por eso hemos visto cómo Claude Code (o Codex, o Gemini CLI, o herramientas similares) se ha convertido en un absoluto prodigio. Uno que de repente nos devolvía a la línea de comandos y a una terminal en la que nos sentíamos como en el ZX Spectrum que yo vi con 9 o 10 años. Tú escribías y la máquina respondía, y aquí igual, pero claro, a lo bestia.

Lo que parecía algo relegado al ámbito de la programación poco a poco está cobrando sentido para muchos otros escenarios. En realidad puedes usar Claude Code o Codex como usas ChatGPT, para conversar, pero parecía que solo se podían usar para programar. Y no. 

Estamos viendo cómo más y más soluciones pensadas para aprovechar la potencia de la IA generativa se programan con una interfaz de texto, para línea de comandos. Esas herramientas están pensadas para ser usadas mucho más por una IA que por un humano. Ahí entran también los MCPs que conectan modelos de IA con herramientas y servicios como Slack, GitHub o AWS, y si esos servicios tienen sus propias versiones de sí mismos en modo texto, la IA los podrá usar muchísimo mejor y de forma mucho más eficiente.

El último ejemplo lo tenemos en Google Workspace CLI, una plataforma que permite que Drive, Gmail, o Calendar se puedan usar desde la línea de comandos. No está pensada para humanos —aunque podamos usarla— sino para que sean los modelos de IA los que la aprovechen. Es un regalo de Google para las máquinas, y uno que no es nada generoso: lo que quiere la compañía aquí es convencer a las máquinas de que usen sus servicios. Los humanos ya los tiene ganados.

Btop btop, una herramienta de monitorización del sistema que hace uso de una interfaz en modo texto que aun así es maravillosa. Fuente: Wikipedia.

Es solo un ejemplo, porque poco a poco vemos cómo la línea de comandos está viviendo una segunda juventud. Ya no solo se habla del GUI (Graphical User Interface), sino del TUI (Text-based User Interface). Es algo que siempre ha tenido su sitio sobre todo en el sistema operativo Linux, donde herramientas como btop o Neofetch demostraban que el texto puede ser (muy) bonito, pero que ahora. Son solo dos ejemplos, porque hay decenas de ellas. Cientos. Probablemente miles. No necesariamente preciosistas, pero sí eficientes y funcionales, como mutt (cliente de correo) o Midnight Commander, legendario explorador de archivos en modo texto. 

Para la IA ese tipo de apps son maravillosas, porque insisto, no se tiene que esforzar en comprender qué pasa: lee texto a toda velocidad y comprende y actúa. Y eso es vital para esos agentes de IA que empiezan a conquistarlo todo y a todos.

Captura De Pantalla 2026 03 06 A Las 11 47 45

OpenClaw, por ejemplo, nos está enseñando ese potencial futuro en el que una IA lo hace casi todo por nosotros en una máquina, y quienes la han probado lo saben (sabemos) bien: hacer cosas en el navegador suele dar problemas porque los navegadores se protegen contra bots que por ejemplo intentar superar CAPTCHAS, y por eso este y otros agentes de IA tratan de usar otros métodos de navegación web como el célebre comando curl. Si conseguimos "traducir" el lenguaje visual de la web a una interfaz de usuario en modo texto, los agentes de IA serán más potentes y capaces que nunca. 

No sabemos si eso ocurrirá, pero lo que es cierto es que el mundo ha entendido que si queremos que la IA haga cosas por nosotros, la interfaz visual es un obstáculo que debemos quitarnos de encima. 

Y por eso estamos reviviendo un fascinante regreso al pasado. La línea de comandos vuelve, y lo hace con mucha fuerza.

En Xataka | La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”


-
La noticia La IA está volviendo a poner de moda algo que creíamos que solo era para friquis: la línea de comandos fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí