7 de marzo de 2026

Los centros de datos han provocado que en EEUU la factura de la luz salga más cara. Y el Gobierno ha dicho basta

Los centros de datos han provocado que en EEUU la factura de la luz salga más cara. Y el Gobierno ha dicho basta

Cada vez que le pides a una IA generativa que te resuelva un problema, un servidor al otro lado del mundo necesita energía para procesarlo y refrigeración para no fundirse. El problema es que ese contador de la luz que gira a toda velocidad no es solo el de las grandes empresas tecnológicas: es el de toda la comunidad. La revolución de la IA tiene un coste físico y económico real que ya ha empezado a golpear el bolsillo de las familias, desatando una crisis que ha obligado al mismísimo Gobierno de Estados Unidos a dar un golpe en la mesa.

El gobierno estadounidense ha dicho basta. Según datos federales, los precios residenciales de la electricidad aumentaron una media nacional del 6% en 2025. Los ciudadanos, ahogados por el coste de la vida, han empezado a atar cabos y a señalar a los inmensos centros de datos que proliferan en sus vecindarios. Tal y como detalla Politico, actualmente hay unos 680 centros de datos planificados en el país, infraestructuras gigantescas que requerirán una energía equivalente a la de 186 grandes centrales nucleares. Esta demanda brutal ha provocado una fuerte oposición ciudadana, como explica The Guardian, numerosas comunidades han empezado a rechazar y bloquear estos proyectos por miedo a que sus recibos se disparen.

La presión ha sido tan fuerte que la rebelión ha calado en feudos tradicionalmente conservadores. Según Financial Times, los legisladores republicanos en estados como Misuri, Ohio y Oklahoma han sugerido paralizar la construcción de centros de datos, mientras que el gobernador de Florida, Ron DeSantis, ha impulsado leyes para regularlos y proteger a las familias de las subidas de precios. Ante este panorama, la administración de Donald Trump se ha visto obligada a intervenir.

El "pacto histórico" de Washington. Según relata The New York Times, ejecutivos de Google, Microsoft, Meta, Amazon, OpenAI, Oracle y xAI peregrinaron a Washington para reunirse con el presidente Trump y firmar la llamada "Promesa de Protección al Contribuyente" (Ratepayer Protection Pledge). El objetivo del acuerdo es blindar a los consumidores frente al aumento de los costes eléctricos. Las empresas tecnológicas se han comprometido a "construir, aportar o comprar" los nuevos recursos de generación eléctrica que necesiten, asumiendo el 100% de los costes de las infraestructuras y las mejoras en la red de transmisión.

Durante el encuentro, Trump dejó una frase que resume a la perfección la crisis de reputación del sector: "Necesitan ayuda con las relaciones públicas, porque la gente piensa que si se instala un centro de datos, el precio de la electricidad va a subir". El presidente aseguró que, gracias al pacto, eso "ya no va a ocurrir". Por su parte, directivas como Ruth Porat (Google) o Dina Powell McCormick (Meta) confirmaron su compromiso de pagar por la infraestructura "terminen usando o no esa energía", según las declaraciones publicadas por el medio neoyorkino

No podemos entender este movimiento de Washington sin mirar al calendario electoral. Políticamente, como señalan Financial Times, los estrategas republicanos alertaron a la Casa Blanca de que la inflación energética era un riesgo inminente de cara a las elecciones legislativas de mitad de mandato (midterms). Los demócratas, como el senador Mark Kelly, ya estaban usando el enfado ciudadano como arma política, tachando el pacto de Trump de ser un simple "acuerdo de apretón de manos" insuficiente.

Y el choque con la realidad: una red al límite. Sobre el papel, la promesa suena perfecta. Como ironiza el medio especializado Engadget, "las grandes tecnológicas acuerdan no arruinar tu factura de la luz". Sin embargo, el periodismo y los expertos del sector energético coinciden en señalar que del dicho al hecho hay un trecho gigantesco. Como advierte Politico, el acuerdo es, en el fondo, "un apretón de manos" voluntario, sin fuerza legal vinculante. Rob Gramlich, exasesor económico citado por CNBC, recuerda que la Casa Blanca no tiene jurisdicción directa sobre este asunto: las reglas de la red eléctrica están descentralizadas y dependen de las comisiones de servicios públicos de los 50 estados. Son ellos, y no el Gobierno federal, quienes aprueban cómo se reparten los costes.

El daño en algunas zonas ya está hecho. Argus Media reporta que en la red PJM —la más grande de EEUU, que abarca 13 estados e incluye el mayor clúster de centros de datos del mundo en Virginia—, los costes de capacidad se han disparado en 23.000 millones de dólares, unas tarifas récord que están bloqueadas hasta 2028, haciendo "virtualmente imposible" bajar los precios a los consumidores a corto plazo. Un organismo de control independiente llegó a calificar esta situación como una "transferencia masiva de riqueza" de los ciudadanos a las corporaciones.

La competencia por los recursos es feroz. Abe Silverman, investigador de la Universidad Johns Hopkins citado por Politico, compara la situación con "una guerra de ofertas por una entrada para un concierto de Taylor Swift". Hay una lista de espera de cinco años para conseguir turbinas de gas, y sus precios se han duplicado. Esta urgencia tecnológica no solo encarece la red, sino que está frenando en seco la transición verde. Tal y como exponen Argus Media, la inmensa demanda de los servidores no puede ser cubierta lo suficientemente rápido con fuentes renovables. Esto está obligando a las compañías eléctricas a retrasar el cierre de plantas de carbón contaminantes y a invertir fuertemente en generación por gas natural, perpetuando la dependencia de los combustibles fósiles. El mayor riesgo, advierte Silverman, es qué pasa si Silicon Valley se equivoca en sus cálculos de crecimiento: "Gastas 3.000 millones en mejorar la red, y luego el centro de datos no se materializa (...) ¿Quién se queda con el problema? La abuela".

¿Europa debería exigir lo mismo? Si cruzamos el charco, la situación no es menos preocupante, y el enfoque normativo es drásticamente distinto. Según datos de la Comisión Europea, los centros de datos consumen actualmente 415 Teravatios-hora (TWh) a nivel global (un 1,5% del total mundial), una cifra que, impulsada por la IA, se duplicará hasta los 945 TWh en 2030. En la Unión Europea, el consumo rondó los 70 TWh en 2024 y saltará a 115 TWh a finales de la década. Europa ha lanzado un sistema de monitorización obligatorio bajo la Directiva de Eficiencia Energética para exigir transparencia sobre este consumo y su huella hídrica y de carbono.

Pero en España, el problema ya es un atasco físico en las redes. Como hemos descrito en Xataka, la red eléctrica española es como una autopista saturada a la que, de repente, ha llegado "un convoy de camiones de tonelaje industrial". La normativa técnica de la Comisión Nacional de los Mercados y la Competencia (CNMC) provocó un "efecto en cascada" que bloqueó los permisos de conexión.

La gran paradoja es la respuesta de las administraciones. Mientras Estados Unidos exige a las tecnológicas que se paguen su propia fiesta eléctrica, España está desplegando una alfombra roja para atraerlas. El Gobierno español quiere convertir al país en la gran "nube" del sur de Europa. Para ello, les ha concedido una "amnistía técnica": ha eliminado el antiguo requisito que obligaba a la industria a consumir en "horas valle" (de noche), adaptándose a la realidad actual donde la energía solar tumba los precios al mediodía (la famosa "curva de pato").

El objetivo final del Ministerio de Industria es otorgar a los centros de datos el estatus de "Consumidores Electrointensivos" (añadiendo su código de actividad, el CNAE 6311, a la normativa). Esto les permitiría recibir compensaciones millonarias en su factura de la luz. Mientras el Gobierno "blinda" a las tecnológicas ante los costes, las previsiones apuntan a que los ciudadanos verán subir sus recibos en 2026 un 4% en peajes y un 10,5% en los cargos del sistema eléctrico.

Europa y España deben abrir un debate urgente: si queremos liderar la infraestructura de la IA, ¿deberíamos copiar el modelo estadounidense y obligar a firmas como Amazon y Google a costear la modernización de nuestra red, o seguiremos subvencionando su despliegue a costa del consumidor local?

Mientras EEUU cobra la entrada, Europa paga la fiesta. La Inteligencia Artificial tiene el potencial de redefinir nuestra economía y resolver problemas médicos e industriales complejos, pero en su estado actual, su apetito voraz la ha puesto a competir directamente con las familias por un recurso básico: la electricidad.

Estados Unidos ha dado el primer paso —impulsado por el miedo a las urnas y el descontento social— para recordar a los gigantes de Silicon Valley que la innovación no puede financiarse vaciando los bolsillos de la clase media. Ahora el balón está en el tejado de Europa. Inmersos en el miedo a perder el tren del progreso tecnológico, los gobiernos europeos (y particularmente el español) deben decidir si su estrategia para seducir a las grandes tecnológicas terminará cargando la millonaria factura de la modernización eléctrica sobre los hombros de sus propios ciudadanos. El enchufe es el mismo para todos; la pregunta es quién lo paga.

Imagen | Gage Skidmore y Rawpixel 

Xataka | Meta ha gastado varios años desarrollando sus chips IA para terminar rendida a la evidencia: mejor usar los de NVIDIA

-
La noticia Los centros de datos han provocado que en EEUU la factura de la luz salga más cara. Y el Gobierno ha dicho basta fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Fuga masiva expone datos de más de un millón de usuarios en plataforma de IA

La plataforma KomikoAI, especializada en generación de videos e imágenes mediante inteligencia artificial, ha experimentado una filtración que expone información de más de un millón de usuarios. La brecha, cuyo vector exacto no se ha revelado, pone en entredicho la robustez de la ciberseguridad en el entorno IA generativa.

Representación de fuga de datos digitales, con íconos de usuario, algoritmos y fondos de inteligencia artificial.

El auge de las aplicaciones de inteligencia artificial ha traído consigo nuevas amenazas para plataformas centradas en el procesamiento de datos, como KomikoAI. Esta empresa, dedicada a la generación automática de imágenes y videos, se enfrenta ahora a uno de los mayores incidentes de fuga masiva de datos de lo que va de año. Más de un millón de perfiles quedaron expuestos tras una intrusión no autorizada, poniendo de relieve las carencias de seguridad en servicios basados en IA y la importancia de mantener controles de acceso y detección continua en este tipo de infraestructuras.

Según el análisis, los atacantes lograron explotar una vulnerabilidad en la infraestructura de KomikoAI, permitiendo acceso indebido a zonas protegidas y la exfiltración masiva de datos sensibles. No se han publicado detalles sobre el vector específico, archivos o cargas maliciosas empleadas, lo que sugiere un posible fallo en los mecanismos de defensa perimetral o en la aplicación de parches de seguridad. Resulta fundamental subrayar la importancia de auditar regularmente la infraestructura y aplicar controles estrictos de gestión de acceso.

La repercusión inmediata es la exposición masiva de datos personales, que pueden utilizarse en fraudes, robo de identidad, campañas de phishing o ingeniería social orientada a usuarios de la plataforma. El daño reputacional para KomikoAI puede traducirse en pérdida de confianza por parte de empresas y usuarios individuales, además de potenciales implicaciones regulatorias en materia de protección de datos.

Desde Hispasec, se recomienda reforzar la seguridad de forma inmediata mediante medidas preventivas, controles proactivos y soluciones técnicas específicas.

Medidas preventivas: Se recomienda realizar formación regular del personal en ciberseguridad, robustecer el control de acceso con autenticación multifactor y programar auditorías de seguridad en todos los servicios críticos.
Posibles workarounds: Desactivar funciones innecesarias para reducir la superficie de ataque y configurar alertas proactivas con el objetivo de identificar accesos no autorizados de forma temprana.
Soluciones técnicas: Asegurar la actualización inmediata de toda la infraestructura mediante parches, implantar soluciones EDR/XRD para monitorizar terminales y revisar continuamente registros de acceso y configuraciones ante cualquier anomalía.

A medida que las herramientas de inteligencia artificial procesan grandes volúmenes de información, es imprescindible no solo proteger el perímetro, sino internalizar la monitorización y la respuesta ágil ante cualquier posible brecha.

Más información

La entrada Fuga masiva expone datos de más de un millón de usuarios en plataforma de IA se publicó primero en Una Al Día.



☞ El artículo completo original de SOC lo puedes ver aquí

La Corte Suprema de EE. UU. cierra la puerta al copyright del arte generado solo por IA

juicio

La Corte Suprema de Estados Unidos ha decidido no revisar el caso que buscaba reconocer copyright a una obra creada íntegramente por un sistema de inteligencia artificial. Puede sonar a un gesto burocrático, pero en la práctica funciona como un sello: el máximo tribunal no cambia el rumbo marcado por tribunales inferiores, que han insistido en una idea concreta, la autoría humana como requisito esencial para la protección.

El asunto gira en torno a Stephen Thaler, informático estadounidense, y a una imagen que presentó para registro como resultado de su algoritmo. Su argumento, en términos simples, era que si una creación es original y existe una “mente” detrás —aunque sea una máquina—, debería poder entrar en el mismo paraguas legal que protege una foto, una ilustración o una novela. La justicia federal, sin embargo, ha mantenido que el paraguas solo se abre cuando hay una persona sujetándolo.

Fuentes como Reuters han seguido el caso de cerca y han subrayado el impacto de esta negativa a revisar la disputa: no es una sentencia nueva, pero refuerza el criterio que ya venía consolidándose.

El caso Thaler y la obra que lo desencadenó

El conflicto no empezó ayer. En 2019, Thaler solicitó a la Oficina de Copyright de EE. UU. el registro de una imagen titulada “A Recent Entrance to Paradise”, atribuida a un sistema de su creación. El organismo rechazó la petición. La idea central fue clara: la obra no mostraba participación humana suficiente como para considerarla protegible.

Años después, en 2022, la propia oficina revisó la decisión y llegó a la misma conclusión: sin human authorship (autoría humana), no hay registro. Para aterrizarlo con un ejemplo cotidiano, la ley trata la autoría como una firma en un cuadro: no basta con que el cuadro exista y sea interesante; el sistema exige que haya una mano —o una mente humana— identificable detrás del acto creativo.

Thaler llevó el asunto a los tribunales. En 2023, una jueza federal, Beryl A. Howell, respaldó el criterio institucional con una frase que se ha convertido en referencia: la autoría humana es un “requisito básico” del copyright. Más tarde, en 2025, un tribunal de apelaciones en Washington, DC, mantuvo esa lectura. Cuando Thaler pidió a la Corte Suprema que interviniera, lo hizo alegando que el criterio podía tener un “efecto disuasorio” para quienes quisieran usar IA de manera creativa. La respuesta final ha sido no admitir la revisión.

Qué significa “autoría humana” en la práctica

La expresión autoría humana puede sonar filosófica, pero en el terreno legal se traduce en preguntas bastante concretas: ¿quién tomó decisiones creativas? ¿Quién controló la expresión final? ¿Quién puede responder por la obra como autor?

Imagina que pides una tarta personalizada. Si solo dices “quiero una tarta rica” y la pastelería decide sabores, forma, decoración y acabado, tu aportación existe, pero nadie diría que tú eres el pastelero. En cambio, si llevas una receta detallada, eliges ingredientes, haces pruebas, corriges proporciones y supervisas el resultado, entonces sí hay una intervención creativa que te acerca a la autoría.

Con el arte generado por IA, el debate se concentra justo ahí: cuándo una persona está usando la herramienta como extensión de su creatividad y cuándo, por el contrario, el sistema está produciendo el resultado casi de manera autónoma. El criterio que se consolida en este caso es que si la obra es puramente generada por IA, sin una aportación humana creativa identificable en la expresión final, no entra en el marco clásico del copyright.

La guía de la Oficina de Copyright y el papel de los prompts

Este contexto encaja con la orientación reciente de la Oficina de Copyright de EE. UU.: el organismo ha señalado que las obras generadas a partir de prompts de texto (instrucciones escritas) no quedan automáticamente protegidas. Es un matiz importante, porque mucha gente crea imágenes describiendo escenas con un nivel de detalle enorme. Aun así, para el regulador, describir no siempre equivale a autorar.

Un prompt puede parecerse a dar indicaciones a un fotógrafo: “luz cálida, fondo industrial, gesto serio”. Ese lenguaje guía, pero el fotógrafo decide encuadre, momento, lente y composición. Con un sistema generativo, parte de esas decisiones las toma el modelo. Si la persona no interviene con un control creativo sustancial sobre el resultado final —por ejemplo, transformándolo de manera significativa, combinándolo con trabajo propio o dirigiendo un proceso que vaya más allá del intento y error—, la protección se complica.

Este punto, para creadores y empresas, es casi más relevante que la anécdota judicial: marca la frontera entre lo que se puede registrar como obra protegida y lo que queda en una zona donde cualquiera podría reutilizarlo sin pedir permiso, al menos desde la óptica del copyright.

Impacto real: creadores, estudios y plataformas

La decisión de la Corte Suprema no significa que el arte generado por IA sea “de nadie” en todos los sentidos, pero sí refuerza una idea: si una pieza es enteramente producto de un sistema, resulta difícil reclamar exclusividad por derecho de autor.

Esto afecta a varios perfiles. Para artistas independientes, puede ser un jarro de agua fría si su flujo creativo se apoya sobre resultados generativos directos. Para estudios, agencias y plataformas, abre un frente de gestión de riesgos: si una imagen no se puede proteger por copyright, su valor como activo exclusivo baja. Es como imprimir camisetas con un diseño que cualquiera puede copiar legalmente: quizá funcione como campaña puntual, pero pierde fuerza como identidad a largo plazo.

También hay un efecto colateral interesante: la presión por demostrar intervención humana puede empujar a procesos más artesanales alrededor de la IA. Se verán más trabajos híbridos, donde la IA es el boceto rápido y el humano es quien remata con edición, composición, retoque, integración en una obra mayor o decisiones estéticas verificables.

La conexión con patentes: la misma pregunta, otro terreno

El caso no está aislado. Thaler lleva años intentando que la ley reconozca resultados de sus sistemas en distintos ámbitos. En el campo de las patentes, tribunales federales también han sostenido que un sistema de IA no puede figurar como inventor, porque la normativa está pensada para personas. La Oficina de Patentes ha reafirmado esta línea con guías recientes: se puede usar IA como herramienta en un proceso inventivo, pero el inventor oficial debe ser humano.

En términos sencillos, el derecho estadounidense está trazando una separación: las máquinas pueden ayudar a crear, sugerir, acelerar o explorar, pero la titularidad legal más fuerte —la que confiere monopolio temporal o exclusividad— se ancla en la persona. La discusión no es si la IA “hace cosas impresionantes”, sino si el marco legal está preparado para tratar a un sistema como sujeto creativo o inventivo. Por ahora, la respuesta se mantiene en negativo.

Lo que queda abierto: negocio, ética y futuras normas

Que la justicia diga “no hay copyright para lo puramente generado por IA” no cierra el debate, lo desplaza. Surgen preguntas prácticas: ¿cómo se licencian estos contenidos? ¿Qué pasa con el entrenamiento de modelos y el uso de obras previas? ¿Cómo se gestiona la atribución cuando un proyecto mezcla material humano con capas generativas?

El mercado suele buscar soluciones incluso cuando la ley va más lenta. Muchas compañías se apoyan en contratos, términos de uso y acuerdos de licencia para fijar quién puede explotar qué. Es un “cinturón” privado cuando el “abrigo” del copyright no cubre del todo. Aun así, esos acuerdos no sustituyen el valor de una protección clara y uniforme.

La decisión de la Corte Suprema sirve como recordatorio: si el objetivo es reclamar derechos sólidos sobre una obra, conviene diseñar un proceso donde la autoría humana sea evidente y documentable. En el día a día creativo, esto se traduce en algo muy tangible: guardar versiones, registrar decisiones, mostrar edición sustancial y poder explicar qué parte de la expresión final proviene del criterio humano.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

6 de marzo de 2026

Ziff Davis vende Speedtest y Downdetector a Accenture por 1.200 millones: qué cambia para los usuarios y por qué importa

imagen profesional y minimalista que representa el impacto del internet de alta velocidad en la obesidad

Speedtest y Downdetector son de esas herramientas que se usan casi sin pensar. Una para comprobar si tu conexión a internet va tan rápida como promete tu operador; la otra para confirmar si el problema es tuyo o si, en realidad, se ha caído medio planeta porque un servicio está fuera de línea. Pues bien: su propietario cambia. Ziff Davis anunció la venta de su división de conectividad, que incluye la empresa Ookla y sus productos más conocidos, a Accenture por 1.200 millones de dólares en efectivo, según informó Engadget y recogió Reuters.

El titular suena corporativo, pero el impacto potencial es muy real: cada vez que alguien mide la velocidad del Wi-Fi o consulta un pico de incidencias en una plataforma popular, hay datos, hábitos de uso y señales del estado de la red que pueden convertirse en un activo valioso. Es como si el termómetro que usas para saber si tienes fiebre pasara a manos de una empresa especializada en rediseñar hospitales.

Qué se vende exactamente: Ookla como fábrica de “señales” de red

La operación no es solo “dos webs populares”. El corazón de la compra es Ookla, la compañía detrás de Speedtest y Downdetector, que Ziff Davis adquirió en 2014 por unos 15 millones de dólares, de acuerdo con Reuters. Speedtest es, en la práctica, un estándar de facto para medir rendimiento de red: descarga, subida, latencia y, en algunos casos, variaciones como jitter. Downdetector, por su parte, funciona como un barómetro social y técnico: agrega reportes y patrones de incidencias para detectar si un servicio está fallando.

Juntas, estas plataformas crean una especie de “mapa del pulso” de internet. Imagina un panel de control que, en lugar de mostrar el tráfico de coches en una ciudad, enseña atascos digitales: dónde hay congestión, qué operadores rinden mejor en cada zona, qué aplicaciones sufren interrupciones y en qué momentos se disparan los problemas. Para una consultora tecnológica como Accenture, ese panel no es curiosidad; es materia prima para vender diagnóstico y mejora.

Por qué Ziff Davis se desprende de la división de conectividad

Ziff Davis es conocida por un portafolio de medios y marcas digitales. Reuters explicó que la venta le permitirá concentrarse en sus marcas “core”, como IGN, Mashable y Everyday Health. Este tipo de movimientos suele responder a una lógica clara: separar activos con perfiles de negocio distintos. Un medio vive de audiencias, publicidad, licencias y, a veces, suscripciones; una unidad de conectividad vive de datos, mediciones, acuerdos con operadores, productos empresariales y servicios B2B.

En paralelo, el contexto del sector editorial digital también pesa. Engadget señalaba la consolidación de marcas y decisiones recientes de personal en publicaciones del ecosistema de Ziff Davis. Sin entrar en lecturas dramáticas, sí hay un patrón que se repite en muchas empresas de medios: simplificar estructura y priorizar líneas de negocio donde el margen sea más predecible. En ese sentido, vender una unidad por 1.200 millones en efectivo es como cambiar una cartera de inversiones variada por un gran cheque que permite reorganizar prioridades.

El “por qué ahora”: 5G, pandemia y un negocio que maduró rápido

Hay un dato que ayuda a entender el tamaño del acuerdo: Reuters apuntó que la división de conectividad generó 231 millones de dólares en 2025. Y también explicó el viento a favor que tuvo la unidad: el despliegue de 5G y el aumento de demanda de ancho de banda durante la pandemia impulsaron el interés por medir calidad de red y entender el rendimiento real.

Traducido a la vida diaria, es como cuando de repente todos empezamos a cocinar en casa y una marca de sartenes pasa de “útil” a “imprescindible”. Más videollamadas, más streaming, más teletrabajo, más juegos online: la conversación dejó de ser “tengo internet” para convertirse en “qué tal va mi internet”. Y en esa conversación, Speedtest se convirtió en una prueba rápida, casi ritual, para confirmar sospechas.

Qué gana Accenture: la promesa de “inteligencia de red” para la era de la IA

Accenture describió la compra como un paso para construir servicios de “inteligencia de red” de extremo a extremo, “esenciales” para una transformación basada en IA, según citó Engadget. El lenguaje suena abstracto, pero se puede aterrizar con una metáfora: si una empresa quiere usar IA a gran escala, necesita carreteras digitales sin baches. La IA no solo vive en modelos y GPUs; vive en redes que conectan centros de datos, nubes, oficinas, fábricas y dispositivos.

Con datos como los de Ookla, Accenture puede reforzar una propuesta típica en grandes cuentas: medir, comparar, localizar cuellos de botella y recomendar inversiones. Para un operador o una gran empresa con miles de sedes, la diferencia entre una red “funciona” y una red “funciona bien” se nota en productividad, calidad de servicio y costes. Y en proyectos de transformación digital, disponer de señales de rendimiento en tiempo real o casi real es como tener un GPS que no solo te dice la ruta, sino también dónde están los accidentes y qué carriles están cerrados.

Lo que puede cambiar para usuarios: más continuidad que sobresaltos, al menos al principio

Una parte tranquilizadora del anuncio es operativa: el acuerdo puede tardar unos meses en cerrarse y, mientras tanto, Ziff Davis seguirá operando Speedtest y Downdetector, según Engadget. Eso sugiere que, de cara al usuario, no debería haber cambios bruscos inmediatos.

Aun así, conviene mirar el medio plazo con lupa. Cuando una herramienta masiva pasa a manos de una consultora, pueden darse tres escenarios. El primero es el más benigno: continuidad de producto, mejoras incrementales y mantenimiento de la experiencia actual. El segundo: integración gradual de funciones orientadas a empresa, con más foco en métricas avanzadas y paneles para clientes corporativos, mientras el usuario final ve pocos cambios. El tercero: cambios en condiciones de uso, modelos de monetización o integración más profunda con ofertas de servicios.

Aquí el punto sensible es la privacidad y el uso de datos. Speedtest y Downdetector se basan en recopilación de mediciones y reportes. Eso no significa automáticamente “vigilancia”, pero sí implica que el valor del negocio está en datos agregados y análisis. Lo razonable será vigilar cualquier actualización de políticas de datos cuando el traspaso se formalice, algo que suele comunicarse en términos y avisos dentro de las apps.

Implicaciones para el mercado: medición como poder

Que estas herramientas cambien de manos recuerda una idea clave: en internet, medir es tener influencia. Quien controla el termómetro, también influye en la conversación sobre la fiebre. Los rankings de rendimiento por ciudades, operadores o tipos de conexión pueden afectar reputación, decisiones de compra e incluso inversiones de infraestructura. También son útiles para reguladores, prensa y analistas que quieren entender cómo evoluciona la conectividad real, más allá de promesas comerciales.

Por eso, esta compra no solo es un movimiento financiero; es una señal de que la observabilidad de redes y la analítica de conectividad siguen ganando peso en la economía digital. En plena carrera por modernizar infraestructuras para soportar cargas intensivas —incluida la IA—, disponer de datos de calidad sobre “cómo se comporta internet en la vida real” es un activo estratégico.

Qué conviene observar a partir de ahora

La noticia, tal como la contaron Engadget y Reuters, deja varias pistas sobre lo que viene: un cierre que puede tardar meses, continuidad operativa durante la transición y una narrativa centrada en servicios de red para transformación empresarial. Para los usuarios, el mejor enfoque es práctico: seguir usando las herramientas como hasta ahora, pero estar atentos a cambios en la experiencia, nuevas integraciones y actualizaciones de términos. Para el sector, la pregunta interesante es cómo Accenture combinará este activo con su oferta de consultoría: si lo usará como producto independiente, como pieza de un paquete de servicios o como base para nuevas soluciones de monitorización y benchmarking.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país

EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país

Dario Amodei, CEO de Anthropic, publicó hace unas horas un comunicado en el que anunciaba algo insólito: el Departamento de Defensa (DoD) le ha confirmado que "hemos sido designados como un riesgo para la cadena de suministro para la seguridad nacional" de EEUU. Esta agencia cumple así la amenaza que planteó hace pocos días y convierte automáticamente a Anthropic, una de las mejores empresas IA del país (si es que no es la mejor) en una empresa paria. ¿Qué implicaciones tiene eso? Muchas y todas ellas enormes.

Veto a Anthropic. Esta designación hace que Anthropic tenga prohibido hacer negocios o desarrollar proyectos para el ejército de los EEUU. Eso ya es grave, pero no es solo por ejemplo el Pentágono el que no lo hará: cualquier empresa que trabaje con el Pentágono tiene también prohibido hacer uso de los servicios de IA de Anthropic para cualquier proyecto gubernamental. Estamos ante una decisión cuyos efectos colaterales pueden ser terribles para Anthropic. La pérdida de ingresos puede ser masiva, y si otras agencias federales siguen el ejemplo del Pentágono, Anthropic podría verse con muchos problemas para defender su viabilidad frente a sus competidores. Esa designación no es inmediata, y habrá un periodo de transición de seis meses para que el DoD migre a otros proveedores (como OpenAI).

Jamás se había hecho con una empresa nacional. El veto a Anthropic es absolutamente extraordinario, y esa designación como "riesgo para la cadena de suministro" era una medida históricamente reservada a adversarios extranjeros como Huawei. Al aplicar esta etiqueta a una empresa estadounidense, el DoD corta sus vínculos comerciales y marca a la compañía con un estigma, una especie de "letra escarlata" que podría ahuyentar a inversores y socios globales.

Choque ético. El núcleo del conflicto no es técnico, sino moral. Anthropic nació como escisión de OpenAI con el objetivo de evitar riesgos existenciales en el desarrollo de modelos de IA, y la compañía siempre se ha postulado como una gran defensora del alineamiento con los valores humanos. Su CEO, Dario Amodei, insistió en que su IA no podía usarse para vigilancia masiva o para el desarrollo de armas letales autónomas, pero eso ha chocado frontalmente con los estamentos gubernamentales y militares de EEUU, que querían un acceso prácticamente total y sin restricciones, salvo las que imponen la Constitución y las leyes de EEUU.

A los tribunales. Amodei ha expliado en su comunicado que peleará la decisión en los tribunales. Su argumento, explica, está en que ese estatuto 10 USC 3252 es una herramienta de protección, no de castigo. La defensa deberá centrarse en demostrar que el Departamento de Defensa no usó los medios menos restrictivos para garantizar la seguridad. Si lo logran podrían invalidar la designación, aunque el daño reputacional ya está hecho.

El dilema de la soberanía. ¿Puede una empresa privada estar por encima del Gobierno? El Pentágono argumenta que ningún proveedor puede colarse en la cadena de mando, y aquí hay una cosa cierta: que una IA tenga cláusulas de uso que limiten las operaciones militares es ceder la soberanía nacional a un algoritmo privado y a los términos de servicio de una junta directiva y de un CEO que no han sido elegidos democráticamente.

La amenaza del intervencionismo extremo. Esta insólita medida podría acabar sentando precedente. Si el Gobierno castiga a las empresas que hacen preguntas incómodas o plantean límites al uso de su tecnología, la innovación en IA podría cambiar de filosofía. Las empresas que quieran subsitir tendrían que hacerlo sin cuestionar las órdenes por puro miedo a la quiebra y la bancarrota.

Plazo de transición. Hay, eso sí, un plazo de seis meses otorgado para la transición y eso parece dejar claro que el Pentágono aún depende de la tecnología de Anthropic para operaciones actuales, como demostraron el secuestro de Nicolás Maduro o los actuales análisis de inteligencia del conflicto en Irán. Queda por ver cómo evolucionarán los acontecimientos, pero desde luego el panorama para Anthropic es preocupante. Y para el resto de empresas también, si efectivamente la justicia da la razón al Departamento de Defensa.

Imagen | Anthropic | Xataka con Freepik

En Xataka | Anthropic se ha convertido en la Apple de nuestra era y OpenAI en nuestra Microsoft: una historia de amor y odio



-
La noticia EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí