2 de febrero de 2026

Microsoft por fin se ha dado cuenta de lo que la comunidad lleva gritándole desde hace meses: no queremos tanta IA

Microsoft por fin se ha dado cuenta de lo que la comunidad lleva gritándole desde hace meses: no queremos tanta IA

La gente está harta de la avalancha de IA que ha inundado Windows y Microsoft hacía oídos sordos a las numerosas quejas de la comunidad. Han metido IA hasta en el Bloc de Notas, que ya es decir. La obsesión de Microsoft ha hecho que la imagen de Windows se resienta, pero por fin parece que están escuchando a los usuarios.

Igual nos estamos pasando. Una de las cosas que ha estado haciendo Microsoft en su cruzada pro-IA es añadir botones de Copilot por todas partes. Está en Paint, en el Bloc de Notas y hasta quieren ponerlo en el explorador de archivos. Aunque Microsoft no se ha pronunciado, según fuentes de Windows Central, la empresa está repensando su estrategia IA y una de las cosas que están bajo revisión son estos botones que han estado añadiendo de forma casi indiscriminada. Quizás acaben eliminando algunos o simplemente sean más selectivos a partir de ahora.

Windows Recall. "Es como tener memoria fotográfica". Así vendía Microsoft la que apuntaba a ser la  función estrella de los PC+Copilot. Lo que le siguió fueron muchas dudas sobre su seguridad y tantas críticas que Microsoft tuvo que retrasar el proyecto más de un año. Recall ya está implementado, pero según Windows Central la empresa no está satisfecha con cómo está funcionando y quieren corregir el rumbo. Cómo lo harán de momento es una incógnita.

Seguirá habiendo IA. Microsoft sigue teniendo muchas funciones IA en marcha y nada indica que vayan a parar, por lo que si estabas frotándote las manos ante la idea de un Windows 11 sin IA, no es el caso. Algunas de las iniciativas que tienen en marcha son las funciones agénticas que anunciaron en noviembre del año pasado (a las que la comunidad se negó en rotundo, por cierto) y funciones para desarrolladores como Windows ML o búsqueda semántica.

Las quejas se han escuchado. Seguramente seguirá habiendo más funciones IA de lo que a la comunidad le gustaría, pero parece que Microsoft ha escuchado el feedback y van a levantar el pie del acelerador. La obsesión con la IA no ha sido el único motivo de descontento, también ha habido decisiones muy criticadas como obligar a usar una cuenta online para actualizar a Windows 11 o los problemas de estabilidad tras actualizar. A pesar de todo, Windows 11 avanza imparable y ya está en más de 1.000 millones de dispositivos

Imagen | Microsoft, editada

En Xataka | He decidido independizarme de toda la tecnología de EEUU y abrazar la europea. Así lo estoy consiguiendo

-
La noticia Microsoft por fin se ha dado cuenta de lo que la comunidad lleva gritándole desde hace meses: no queremos tanta IA fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

Hay un motivo por el que asaltas la nevera cada vez que te aburres: tu cerebro quiere dopamina y la encuentra comiendo

Hay un motivo por el que asaltas la nevera cada vez que te aburres: tu cerebro quiere dopamina y la encuentra comiendo

Hay una escena bastante clásica en la vida de muchas personas: no tener hambre pero estar deambulando por la cocina, abrir la nevera, mirar y cerrar. Minutos después, se repite esta operación. ¿El resultado final? Acabar comiendo algo que probablemente no necesitábamos, que es lo que se puede conocer de manera popular como 'gula', pero la ciencia de la nutrición tiene un término más preciso: alimentación emocional

Investigación. Investigadores de referencia en España como Dolores Corella y Jordi Salas-Salvadó del CIBERobn, han puesto el foco en cómo factores más de las calorías, como las emociones o la genética, determinan nuestro peso. Y la conclusión es bastante clara: el aburrimiento es un factor de riesgo metabólico tan real como el azúcar. 

El cerebro aburrido. Cuando nos aburrimos, el cerebro detecta un déficit de estimulación que trata de compensar con la vía más rápida hacia el placer. Y aquí es donde entran los queridos ultraprocesados. En este caso la ciencia apunta a que estos alimentos no solo nos nutren mal, sino que activa los circuitos dopaminérgicos de recompensa, de forma muy similar a como lo hacen ciertas sustancias adictivas. 

En este caso, tenemos lo primer de todo un estímulo que es el aburrimiento que hace que caiga nuestro estado de ánimo. Aquí el cerebro busca un pico de dopamina rápido y una manzana no suele bastar, sino que busca grasas y azúcares refinados, puesto que su consumo provoca un pico de placer seguido de una caída brusca. Algo que potencia el consumo excesivo y por ende que se favorezca el engordar. 

El peligro de aburrirse. No tener cosas que hacer durante el día o incluso durante la noche la verdad es que es algo que puede ser el germen ideal para consumir más calorías de las necesarias. Y es que sobre todo el aburrimiento suele atacar con más fuerza al final del día, cuando las obligaciones terminan y aquí es donde la "ingesta por aburrimiento" choca de manera frontal con la crononutrición. 

La investigadora Marta Garaulet ha demostrado que el momento en el que comemos es crítico, puesto que picar por aburrimiento más allá de las 21:00 es metabólicamente desastroso, especialmente en España.

Por qué España. Los españoles llevamos mucho peor el hecho de comer por aburrimiento más allá de las 9 de la noche debido a una carga genética en la mitad de la población relacionada con el gen MTNR1B. En este caso, quien tenga este gen y coma tarde las consecuencias están bastante claras: el cuerpo segrega menos insulina y tolera peor la glucosa que le estamos introduciendo. 

El resultado aquí es que lo que se come por el aburrimiento nocturno engorda más y es más inflamatorio que si se come de día, debido a al desincronización de los ritmos circadianos y las enzimas necesarias para procesar los alimentos. 

Cómo contrarrestarlo. Si el aburrimiento es el detonante de esta situación y los ultraprocesados son la gasolina, la solución para romper este círculo vicioso está en los estudios PREDIMED. En este caso, apuntaron que aumentar la ingesta de fibra a través de frutas, verduras y legumbres mejora la regulación de la glucosa. Algo que potencia la reducción de las bajadas de glucosa que puede potenciar al cerebro a comer algo de azúcar urgentemente. 

Además de esto, el estudio PREDIMED confirma que la dieta mediterránea suplementada con aceite de oliva virgen extra (AOVE) o frutos secos reduce la ansiedad por comer. A diferencia de los ultraprocesados, que te dejan queriendo más, un puñado de nueces activa mecanismos de saciedad duradera que evita que caigamos durante la noche en comer un bollo o un helado de chocolate. 

Rutina vs. caos. Dado que el ayuno intermitente carece de evidencia sólida a largo plazo, los expertos como Salas-Salvadó sugieren centrarse en rutinas marcadas: adelantar la cena para ampliar el ayuno nocturno de forma natural. Tener un horario fijo reduce los momentos de "tiempo muerto" donde ataca el hambre por aburrimiento.

Con todo esto lo que conseguido es que el cerebro no se adapte a las situaciones con altos niveles de dopamina como puede ser una época de grandes cenas nocturnas muy copiosa. Es por ello que la estrategia no se trata de prohibir, sino de entender que cuando abres la nevera a las once de la noche sin hambre, no es el estómago el que habla sino el cerebro buscando un entretenimiento que necesita. 

Imágenes | Tobi  Towfiqu barbhuiya

En Xataka | Los científicos han hallado en una proteína la llave de la obesidad: ratones que no engordan aunque consuman una dieta grasa






-
La noticia Hay un motivo por el que asaltas la nevera cada vez que te aburres: tu cerebro quiere dopamina y la encuentra comiendo fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

"No creo que la humanidad sobreviva en los siguientes mil años": la inquietante predicción de Stephen Hawking sobre nuestro futuro

"No creo que la humanidad sobreviva en los siguientes mil años": la inquietante predicción de Stephen Hawking sobre nuestro futuro

En 1818, cuando una expedición dirigida por John Ross se cruzó con ellos alrededor del fiordo de Inglefield, los inughuit llevaban siglos sin ver a ningún otro ser humano. Descendientes de los pueblos thule, llegaron a Groenlandia en el siglo XIII y vivieron una pequeña edad de oro hasta que, en torno al siglo XVII, el cambio climático los aisló del resto de la civilización.

Eran una comunidad de poca más de 200 personas convencidas de que eran los últimos seres humanos sobre la faz de la Tierra. Y lo estuvieron durante cientos de años.

Los finales del mundo

Este caso es interesantísimo porque, aunque el "fin del mundo" ha sido un tropo literario desde hace miles de años, no hay tantas comunidades que hayan pensado que eran los últimos que quedaban. El 'Apocalipsis' históricamente era más un 'reset' que un 'game over'. Como señalaba Thomas Moynihan en su 'X-Risk : How humanity discovered its own extinction', la idea de que el mundo se acabara del todo era "virtualmente impensable".

Pero hace 200 algo cambió. Fue  cuando, empezamos a entender que no existe un "principio antrópico", que no somos necesarios, ni el resultado natural de la evolución del universo. Es decir, empezamos a entender que podíamos desaparecer. 

El problema es que en estos dos siglos la cosa no ha hecho si no ir a peor. Lo defendió Nick Bostrom hace más de veinte años, "debido a la aceleración de progreso tecnológico, la humanidad puede estar acercándose rápidamente a una fase crítica de su carrera". 

El 'riesgo existencial'

Es decir, "una amenaza que podría aniquilar a la humanidad o destruir permanentemente gran parte de su potencial". Hablamos de un riesgo que podría eliminar no sólo a la población humana actual, sino también a todas las generaciones futuras potenciales. 

Dan Meyers Xxbqirwh2 A Unsplash Dan Meyers

Un riesgo que, por lo demás, no ha dejado de crecer desde principio de siglo porque, a las amenazas que ya teníamos (el clima, las armas nucleares, etc...) se suma ahora el derivado de la inteligencia artificial

En 2016, frente a la Oxford Union (la que probablemente sea la sociedad de debate más prestigiosa del mundo), Stephen Hawking impartió una conferencia sobre cosmología que terminaba con una profunda reflexión terrible sobre el riesgo existencial y el futuro de la humanidad.

Con aquella frase ("no creo que sobrevivamos otros mil años"), el Hawking de 2016 no estaba inventando nada, estaba poniendo en palabras algo que los expertos llevaban rumiando muchos años.

También estaba dándonos una solución.

Porque, aunque la cita está al final de la conferencia, el físico británico aún tuvo tiempo para añadir algo clave: que no creía que sobrevivamos otros mil años, sino no "escapábamos más allá de nuestro frágil planeta". 

Era una forma de poner los huevos en varias cestas; pero a escala interplanetaria. A medida que los riesgos sobre el planeta crecen, el espacio aparece como el "plan B". Hawking es bastante explícito en esto: "no es solo una cuestión intelectual", nos viene a decir. "Ni siquiera es una cuestión económico, es una cuestión existencial".

Evidentemente, es algo peliagudo. El 'moral hazard' está ahí. El riesgo que usemos ese espantajo como excusa para no reducir riesgos en la Tierra. Sin embargo, si leemos las palabras de Hawking en su contexto, está claro que no es eso lo que nos dice.

"Necesitamos otros mundos, pero están en este". 

Llevando al límite el argumento de Hawking, ni siquiera necesitamos ir al espacio, necesitamos querer ir. Necesitamos el sueño especial porque necesitamos historias que nos hablen de hasta dónde podemos llegar; historias que nos motiven a crear nuevas tecnologías y desarrollar nuevas maneras de mirar el mundo.

El caso de los inughuit también es muy frustrante, porque el contacto con el mundo exterior los cambió muy rápido y no nos dio tiempo a estudiar ni su forma de vida, ni su sistema de creencias. Sin embargo, siempre podemos fabular y eso es lo que hace Hawking en el discurso de 2016: darse cuenta de algo que, sin duda, se dieron cuenta los inughuit perdidos en el infierno blanco, que "lo importante es no rendirse".

Imagen | Tanya Hart | Alexander Andrews

En Xataka | En 2009 Stephen Hawking organizó "la fiesta del siglo". No acudió nadie precisamente porque Stephen Hawking la organizó



-
La noticia "No creo que la humanidad sobreviva en los siguientes mil años": la inquietante predicción de Stephen Hawking sobre nuestro futuro fue publicada originalmente en Xataka por Javier Jiménez .



☞ El artículo completo original de Javier Jiménez lo puedes ver aquí

Dentro del misterioso colapso de los halos de materia oscura: una simulación que acerca la “zona intermedia” a tu portátil

dark matter

La materia oscura es como el andamiaje invisible de una obra: no lo ves cuando miras el edificio terminado, pero sin él nada se sostendría. Desde hace décadas sabemos que algo “extra” aporta gravedad y mantiene unidas a las galaxias, guía cómo se agrupan y dibuja la gran red cósmica. Lo que sigue sin resolverse es qué es exactamente esa materia y cómo se comporta cuando se organiza en estructuras gigantescas.

En ese contexto, un trabajo difundido por ScienceDaily a partir de materiales del Perimeter Institute pone el foco en una posibilidad concreta: que la materia oscura no sea un conjunto de partículas que solo “pasan de largo”, sino que pueda chocar consigo misma. Ese matiz, que suena pequeño, cambia mucho las reglas del juego cuando intentas entender qué ocurre dentro de los halos de materia oscura, esas envolturas masivas que rodean a las galaxias y condicionan su evolución. El estudio, firmado por James Gurian y Simon May y publicado en Physical Review Letters, presenta una herramienta de simulación creada para estudiar precisamente esa clase de escenario.

Qué significa que la materia oscura “interactúe consigo misma”

La idea central es la materia oscura auto-interactuante (conocida como SIDM, por sus siglas en inglés). En este marco teórico, las partículas de materia oscura pueden colisionar entre sí, intercambiando energía en choques elásticos, pero sin interactuar de forma apreciable con la materia normal, la que forma átomos, planetas y personas. Dicho de otro modo: sería como una multitud que no empuja a los objetos del escenario, pero sí se empuja entre sí, y ese empujón colectivo acaba afectando al “flujo” de la multitud.

En cosmología, ese “flujo” importa porque los halos no son bolas rígidas, sino sistemas dinámicos. La distribución de densidad en el centro, la manera en que la energía se mueve de unas regiones a otras y el grado de concentración en el núcleo pueden cambiar si la materia oscura tiene la capacidad de auto-colisionar. Gurian lo plantea con una imagen fácil de seguir: las galaxias, incluida la Vía Láctea, viven dentro de estos halos, que son relativamente difusos si los comparas con un planeta, pero aun así muchísimo más densos que la densidad media del universo.

El colapso gravotérmico: cuando perder energía te calienta

Aquí aparece el fenómeno que da título al hallazgo: el colapso gravotérmico dentro del halo. Puede parecer una contradicción, pero en sistemas dominados por gravedad hay comportamientos contraintuitivos. Si piensas en una taza de café, al perder calor se enfría. En un sistema gravitacional, al perder energía puede ocurrir lo contrario: el núcleo termina más caliente. Es una rareza que se explica porque la gravedad “premia” la concentración: cuando una región central pierde energía hacia afuera, se contrae, y esa contracción incrementa la velocidad típica de las partículas, lo que equivale a una subida de temperatura efectiva.

En el caso de la SIDM, las auto-colisiones actúan como un mecanismo de transporte de energía. Según describen los autores, esa energía tiende a fluir hacia el exterior del halo. El resultado es que el núcleo se va calentando y densificando, como si una ciudad expulsara recursos hacia la periferia y, paradójicamente, el centro se volviera cada vez más congestionado. Con el tiempo, ese proceso puede empujar al núcleo hacia un episodio de colapso marcado, un “apretón” interno que transforma la estructura del halo.

Lo interesante es que no hablamos de un detalle matemático aislado: este tipo de evolución podría dejar señales observables indirectas, ya sea por el modo en que se distribuye la materia en galaxias enanas, por la forma de los perfiles de densidad en regiones centrales o, en escenarios extremos, por su relación con la formación de agujeros negros.

El problema de simular la zona donde pasan las cosas difíciles

Hasta aquí, la teoría suena sugerente. El obstáculo histórico ha sido técnico: simular estos halos con simulaciones cosmológicas realistas. En ciencia computacional, a veces tienes herramientas excelentes para los extremos, pero te fallan en el punto medio. Eso es justamente lo que describen Gurian y May.

Por un lado, están las simulaciones tipo N-body, que representan la materia como muchas partículas y calculan sus interacciones gravitatorias. Funcionan muy bien cuando la densidad es baja y las colisiones entre partículas de materia oscura son raras, porque el sistema se parece a un conjunto de objetos que se influyen sobre todo por gravedad. Por otro lado, existe el enfoque de fluido, que trata el conjunto como un medio continuo y resulta adecuado cuando la densidad es alta y las interacciones son tan frecuentes que el comportamiento se aproxima al de un gas o un fluido.

El problema aparece en el terreno intermedio: cuando las colisiones son relevantes, pero no lo bastante frecuentes como para justificar tratarlo todo como fluido; y cuando el sistema tampoco encaja en el supuesto de “colisiones casi inexistentes”. Ese rango, según explican, era un cuello de botella: demasiado “colisionante” para un método, demasiado “granular” para el otro. Y si no puedes modelarlo bien, es como intentar entender el tráfico de una ciudad usando solo dos herramientas: una que sirve para carreteras vacías y otra para un atasco total, sin nada fiable para la hora punta real.

KISS-SIDM: un puente computacional pensado para ser usable

La aportación práctica del trabajo es un código llamado KISS-SIDM, diseñado para cubrir esa “hora punta” de la materia oscura. La promesa es doble: más precisión en ese régimen intermedio y menos coste computacional. Según la descripción, esto cambia la vida cotidiana del investigador, porque permite explorar parámetros de interacción sin depender necesariamente de un clúster de cómputo. Dicho en versión doméstica: pasas de necesitar una cocina industrial para probar recetas a poder ajustar ingredientes en una cocina pequeña sin perder el control del resultado.

El valor de esa accesibilidad no es trivial. En física de partículas y cosmología, comparar modelos implica barrer rangos de parámetros, repetir simulaciones, contrastar con observaciones y revisar supuestos. Si cada intento cuesta días de cómputo y un acceso limitado a infraestructura, la investigación se vuelve más lenta y menos reproducible. Que la herramienta sea pública y ejecutable en un portátil, tal como se destaca en el comunicado, puede facilitar revisiones independientes y ampliar el número de grupos capaces de probar hipótesis de SIDM con un grado de realismo mayor.

El interés por modelos de materia oscura con interacciones ha crecido, entre otras razones, porque algunas observaciones de galaxias muestran tensiones o “anomalías” cuando se comparan con predicciones simples de materia oscura fría y no interactuante. Neal Dalal, investigador asociado al Perimeter Institute, lo resume en términos de oportunidad: una parte del atractivo de la herramienta es que permitiría hacer cálculos que antes resultaban intratables, abriendo el abanico de estudios posibles.

Qué podría implicar para galaxias y agujeros negros

Si el núcleo de un halo puede densificarse y calentarse por transporte de energía y acabar en un colapso gravotérmico, la pregunta natural es qué significa eso para las galaxias que viven dentro. El halo no es un decorado; es el “campo gravitatorio” en el que se mueven estrellas y gas. Cambiar su estructura central puede modificar cómo se acumula materia en el centro, cómo se estabilizan o no las regiones internas y cómo evolucionan los discos galácticos.

El vínculo con agujeros negros es especialmente sugerente, aunque todavía abierto. Si una región de materia oscura alcanza densidades extremas, podría contribuir a crear condiciones favorables para la aparición de un agujero negro, o para alimentar uno ya existente. Los propios autores señalan que una de las grandes preguntas es el “punto final” del colapso: qué ocurre tras esa fase y cómo se describe la evolución si se forma un agujero negro. Es un recordatorio útil de que una simulación más capaz no “resuelve” el misterio, pero sí permite formularlo con más precisión y acercarlo a predicciones contrastables.

Un avance metodológico con preguntas pendientes

Conviene mantener el equilibrio: este trabajo no detecta materia oscura ni prueba que la SIDM sea la respuesta correcta. Lo que ofrece es una herramienta para explorar un comportamiento que, si existe, tendría consecuencias medibles en la arquitectura de los halos. Es una pieza en el rompecabezas: el tipo de pieza que no se luce en la foto final, pero que hace posible encajar otras.

El artículo científico, titulado “Core Collapse Beyond the Fluid Approximation: The Late Evolution of Self-Interacting Dark Matter Halos”, apunta precisamente a esa ambición: ir más allá de la aproximación de fluido y seguir la evolución tardía del halo cuando la física deja de ser cómoda. Para quienes trabajan en el cruce entre teoría y observación, este tipo de progreso puede ser la diferencia entre discutir ideas de forma abstracta o compararlas con datos reales de galaxias, lentes gravitacionales o estructuras a gran escala. La historia de la materia oscura ha sido, en buena medida, la historia de aprender a preguntar mejor; herramientas como KISS-SIDM buscan que esas preguntas se puedan poner a prueba con menos fricción y más detalle, incluso desde un ordenador personal.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

¿Puede Google Gemini convertirse en un monopolio de la inteligencia artificial? Lo que dicen la tecnología, el dinero y los reguladores en 2026

ilustración surrealista de inteligencia artificial local con Gemma 3n y función multimodal

La pregunta sobre si Google puede acabar dominando la IA generativa no sale de la nada. A principios de 2026, la sensación para muchos usuarios es parecida a estrenar móvil y descubrir que el asistente ya está “sentado en el asiento del copiloto” antes de que tú decidas si lo quieres. Cuando una tecnología se integra en productos que ya usas cada día, el riesgo de concentración aumenta aunque el mercado siga siendo competitivo.

Con Google Gemini, la ventaja más evidente no es solo la calidad del modelo; es el punto de partida. Google no necesita convencerte de instalar algo nuevo si la experiencia de inteligencia artificial se incrusta en servicios cotidianos como el correo o el trabajo colaborativo. La propia compañía, por ejemplo, ha comunicado cómo Gmail entra en la “era Gemini” con resúmenes y ayuda para redactar, algo que empuja la adopción casi por inercia. Si tu bandeja de entrada es tu oficina, el asistente se convierte en parte del mobiliario.

La “trinidad” de Google: distribución, datos y cómputo

Cuando se habla de monopolio, conviene separar dos planos: el tecnológico y el comercial. En ambos, Google tiene cartas fuertes.

En distribución, su baza es el ecosistema. Controla una parte enorme del acceso a internet a través de Android y también del flujo de trabajo a través de Google Workspace. Esto significa que Gemini puede presentarse en el momento exacto en que el usuario tiene una necesidad: buscar, responder un email, resumir un documento, planificar una reunión. En términos prácticos, es como poner una cafetera en la cocina de todas las casas: no garantiza que el café sea el mejor, pero sí que será el más fácil de tomar.

En datos, Google parte con un historial largo en búsqueda y productos masivos. Y en cómputo, tiene infraestructura propia, centros de datos y chips diseñados para cargas de IA. Esa integración vertical no es un detalle técnico; es una barrera de entrada. Entrenar y servir modelos de frontera se parece cada vez más a construir centrales eléctricas: quien tiene el tendido y la generación juega con ventaja.

Aquí aparece el núcleo del temor: si el asistente está en la capa de sistema y la empresa controla buena parte de la distribución, puede inclinar el mercado sin necesidad de “ganar” por puro mérito del modelo. Es la diferencia entre competir por tener el mejor restaurante y competir por ser el único que puede poner carteles en la autopista.

Lo que frena el monopolio hoy: la vigilancia regulatoria ya está en marcha

El elemento que más ha cambiado respecto a otras épocas tecnológicas es que los reguladores han llegado antes al debate. En Europa, la Comisión Europea abrió procedimientos bajo la Digital Markets Act centrados, entre otras cosas, en cómo Google debe permitir interoperabilidad en funciones de Android usadas por sus servicios de IA como Gemini, y también en obligaciones vinculadas a datos de búsqueda. No es un matiz: es un mensaje de que el “asistente por defecto” se mira con lupa.

En Estados Unidos, el contexto antimonopolio sobre Google en búsqueda también pesa sobre cualquier estrategia de distribución de IA. El Department of Justice comunicó avances y remedios en su caso de monopolización, y el pulso sobre qué medidas se imponen y cuándo se ejecutan sigue vivo. Paralelamente, Reuters ha informado de movimientos recientes relacionados con demandas y decisiones judiciales que mantienen la presión sobre el modelo de acuerdos y distribución de Google.

Traducido a lenguaje llano: Google puede tener la tentación de “conectar” Gemini a todo, pero cada cable nuevo que enchufa se revisa como si fuese una instalación eléctrica en un edificio antiguo. El riesgo de monopolio existe; la posibilidad de que se materialice sin fricción legal, no.

El otro freno: el mercado no depende de un solo laboratorio

Hay otra idea importante: IA generativa no equivale a un único producto. Hay chatbots de consumo, asistentes integrados en suites de trabajo, modelos para programar, modelos para empresas con requisitos de privacidad, modelos abiertos que corren en local. Esa diversidad crea vías de escape frente a un único proveedor.

El mejor ejemplo del “contrapeso económico” es la carrera de inversión alrededor de los rivales de Google. Anthropic, creadora de Claude, está en conversaciones y rondas que la sitúan en valoraciones gigantescas y con planes exploratorios de salida a bolsa en 2026, según medios como Reuters y Financial Times. Una empresa que puede financiar su cómputo y su crecimiento sin venderse reduce el riesgo de que el mercado se consolide por adquisición.

También hay un factor de alineamientos: Amazon ha reforzado su posición como financiador clave de Anthropic y, al mismo tiempo, se ha informado de conversaciones para invertir cantidades masivas en OpenAI. Este tipo de movimientos hacen que la industria se parezca menos a un tablero con un rey y más a una partida con varios jugadores grandes que se vigilan mutuamente porque sus nubes y sus ecosistemas compiten.

¿Y si OpenAI se tambalea? El riesgo existe, pero el incentivo para rescatarla también

En el debate público aparece con frecuencia la posibilidad de que OpenAI sufra por costes y financiación. Informes recientes, citados por medios financieros, han hablado de previsiones internas de pérdidas elevadas en 2026 y de rondas de financiación enormes para sostener la expansión. Si esto se confirmara en el tiempo, sería un recordatorio de que el negocio de servir modelos avanzados tiene una factura mensual descomunal.

Aquí conviene evitar una lectura lineal tipo “si OpenAI cae, Google gana”. En tecnología, cuando una pieza se vuelve estratégica, aparecen “mecanismos de supervivencia” del mercado. Si múltiples plataformas, desarrolladores y empresas dependen de un proveedor, la industria encuentra la forma de refinanciarlo, reestructurarlo o repartir sus capacidades. No es romanticismo; es puro interés económico. Nadie quiere que el suministro de “electricidad cognitiva” dependa de un solo enchufe.

El escenario “Google compra Anthropic”: más teoría que posibilidad

La hipótesis de que Google compre a su mayor rival de laboratorio suena, en abstracto, como el movimiento definitivo. En la práctica, el contexto de 2026 lo vuelve altamente improbable por dos razones muy terrenales: precio y regulación.

En precio, las cifras que se manejan para Anthropic en rondas recientes la sitúan en niveles que obligarían a una operación gigantesca. En regulación, el listón antimonopolio está más alto que en la década pasada. Si Europa está abriendo procedimientos incluso para definir cómo se comparte acceso e interoperabilidad en Android cuando entra en juego Gemini, una compra de esa magnitud sería gasolina sobre un fuego ya encendido.

El papel del código abierto: la válvula de seguridad

El monopolio se vuelve más difícil cuando existe una alternativa que cualquiera puede desplegar. En IA, esa válvula es el código abierto: modelos que permiten a empresas y desarrolladores construir sin depender totalmente del “cerebro en la nube” de un solo actor. El impacto es similar al de tener una receta pública frente a un restaurante único: quizá no todos cocinarán igual, pero la posibilidad de hacerlo impide que uno solo fije el precio de la cena.

Este punto no elimina el poder de Google, pero sí reduce la probabilidad de un bloqueo total del mercado. Si un país, una gran empresa o una startup puede ejecutar modelos propios o ajustar modelos abiertos, el control se reparte.

Entonces, ¿hay riesgo real de monopolio de la IA con Google Gemini?

Sí, el riesgo existe, sobre todo por la combinación de distribución (Android/Workspace), datos y capacidad de cómputo. Es la clase de ventaja que históricamente ha permitido a plataformas “convertirse en el lugar donde pasan las cosas”. La diferencia en 2026 es que hay frenos visibles: procedimientos en Europa bajo la Digital Markets Act, presión legal en Estados Unidos por búsqueda, rivales financiados a escala récord y una corriente de IA abierta que funciona como contrapeso.

La pregunta práctica para el usuario no es solo quién tiene el mejor modelo, sino quién controla el acceso. Si Gemini se vuelve ubicuo, lo importante será que siga existiendo elección real: poder cambiar el asistente, poder usar alternativas, poder entender qué datos se usan y en qué condiciones. Ahí es donde se decide si hablamos de competencia dura o de un monopolio silencioso.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí