20 de abril de 2025

El juicio contra Google por monopolio publicitario inquieta a Mozilla y pone en juego el futuro de la web abierta

Una de las primeras en reaccionar fue Mozilla, conocida por su navegador Firefox y su compromiso con una web más privada y descentralizada. Su directora ejecutiva, Laura Chambers, expresó su preocupación por las posibles consecuencias de las medidas que el Departamento de Justicia de Estados Unidos podría imponer como parte de las soluciones (remedios) al caso.

¿Qué significa realmente este fallo?

Para entender la magnitud del asunto, pensemos en la publicidad digital como una gran autopista por la que circulan anuncios de todo tipo. Google no solo construyó una gran parte de esa autopista, sino que también controla los peajes, las normas de circulación y hasta los vehículos que transitan por ella. Esta posición dominante le ha permitido obtener enormes beneficios y decidir qué anuncios se ven, cuándo y cómo.

La justicia estadounidense ha concluido que Google mantuvo esta situación de privilegio no por méritos técnicos o por la preferencia de los usuarios, sino por acciones deliberadas para bloquear o reducir la competencia.

Ahora bien, si se decide aplicar sanciones estructurales —como obligar a Google a vender partes de su negocio publicitario o a modificar drásticamente su modelo—, estas medidas podrían transformar la forma en que funciona internet.

Mozilla: una pieza clave que podría caer

Lo que más inquieta a Mozilla no es tanto que Google pierda parte de su poder, sino que las medidas correctivas que se plantean para aumentar la competencia en las búsquedas puedan tener efectos colaterales sobre los navegadores independientes como Firefox.

Mozilla teme que el enfoque de las autoridades esté tan centrado en diversificar el mercado de buscadores —es decir, reducir el dominio de Google Search— que termine descuidando un componente igual de crucial: los motores de navegador.

¿Qué es un motor de navegador?

Cada navegador web funciona gracias a un motor que interpreta el código de las páginas y las muestra en pantalla. Hay tres grandes motores en uso hoy en día:

  • Blink, utilizado por Google Chrome, Microsoft Edge y otros navegadores basados en Chromium.
  • WebKit, que es el corazón de Safari (Apple).
  • Gecko, que impulsa Firefox y representa el único motor de navegador independiente de las grandes tecnológicas.

Si Gecko desaparece, también se extinguiría la diversidad tecnológica en los navegadores, ya que todos estarían controlados por las mismas empresas que dominan otros sectores digitales. Esto equivaldría a que todas las marcas de coches usaran el mismo motor, fabricado por una sola compañía. No habría espacio para la innovación, ni para modelos que prioricen la privacidad o el código abierto.

Un delicado equilibrio entre competencia y supervivencia

Chambers lo plantea con claridad: “Si el Departamento de Justicia realmente quiere mejorar la competencia, no puede arreglar un problema creando otro”. En otras palabras, no se puede corregir el dominio de Google en las búsquedas sacrificando la supervivencia de navegadores que ofrecen una experiencia distinta.

Firefox ha sido durante años una alternativa enfocada en la privacidad del usuario, el respeto por los estándares abiertos y la transparencia en el desarrollo. Pero mantener un navegador es caro y complejo, y Mozilla ha dependido en gran medida de un acuerdo comercial con Google, que paga por ser el buscador predeterminado en Firefox.

Una reestructuración forzada del ecosistema podría poner en peligro este acuerdo o dificultar la viabilidad económica de Mozilla.

La paradoja de la regulación

Este caso expone una paradoja recurrente en el mundo tecnológico: las regulaciones que buscan limitar a los gigantes muchas veces terminan afectando a los más pequeños. No por malicia, sino por un enfoque poco integral que no contempla todos los engranajes del sistema.

Mozilla está pidiendo que, al diseñar los remedios del juicio, las autoridades consideren no solo el mercado de búsqueda, sino también el de los navegadores y sus motores. Porque lo que está en juego no es solo el modelo de negocio de una empresa, sino el futuro de la web como espacio libre, diverso y accesible.

¿Qué puede pasar ahora?

Google ya ha anunciado que apelará la sentencia, lo que podría dilatar el proceso durante meses, o incluso años. Mientras tanto, se espera una audiencia clave en la que se debatirán las posibles medidas correctivas.

Estas son algunas de las opciones sobre la mesa:

  • División estructural: Obligar a Google a separar sus divisiones de publicidad y búsqueda.
  • Prohibiciones contractuales: Impedir acuerdos de exclusividad con fabricantes de dispositivos o desarrolladores de navegadores.
  • Requisitos de interoperabilidad: Obligar a Google a compartir datos y herramientas con competidores más pequeños.

Cualquiera de estas soluciones tendrá efectos colaterales. Lo que Mozilla pide es que se haga un análisis amplio que incluya los impactos en la competencia entre navegadores, y no solo en los buscadores.

Por qué debería importarnos como usuarios

Puede que como usuarios no sintamos el impacto de estos juicios de forma inmediata. Pero las decisiones que se tomen hoy afectarán a cómo accedemos a la información, qué opciones tenemos para navegar y quién decide qué contenido se nos muestra.

Si solo existen motores de navegador controlados por Google o Apple, el diseño y funcionamiento de la web podría adaptarse a sus intereses comerciales, dejando de lado valores como la privacidad, la accesibilidad o la innovación independiente.

Defender la existencia de navegadores como Firefox es, en el fondo, defender el derecho a elegir y a tener una internet plural, donde diferentes voces puedan desarrollarse sin depender de los dictados de un puñado de empresas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No necesitamos más métodos de productividad. Necesitamos volver a tener un propósito

No necesitamos más métodos de productividad. Necesitamos volver a tener un propósito

"Tu objetivo no es la productividad, es el control. Haz menos cosas, con más intención, hasta que todo lo que hagas sea exactamente lo que quieres".

Andaba el otro día scrolleando en X esquivando memes de Studio Ghibli cuando encontré esta frase de Justin Welsh. Es una de las muchas reflexiones que tira este emprendedor como si fuese un pedrazo al agua, pero esta en concreto cayó como en un estanque y generó ondas concéntricas de asentimientos. También el mío.

La productividad se ha convertido en nuestro caballo de Troya particular. Nos seduce prometiendo liberación cuando en realidad instala un régimen de autovigilancia constante. Mea culpa. Hemos interiorizado que maximizar la eficiencia es una cualidad, sin cuestionar una premisa básica: ¿eficiente para qué? ¿Para quién?

La industria de la optimización personal en general y los entusiastas de la productividad en particular operamos sobre un espejismo: perseguimos sistemas y herramientas con la promesa de que nos harán más productivos, pero lo que realmente queremos es autonomía y control sobre nuestro tiempo.

La optimización tiene un tope algo temprano, pero las restricciones intencionales tienen mucho más desarrollo. Dicho de otro modo, la libertad surge de la disciplina de decir "no". De entender qué es lo realmente importante y cavar trincheras a su alrededor.

Welsh propone que dejemos de entender la productividad como un fin y pasemos a asumirla como un subproducto de la autonomía personal. De volver a ser dueños de nuestra agenda y no esclavos del calendario en tanto en cuanto ser asalariados nos lo permita.

"Productividad", entonces, es otra palabra para "control". No el obsesivo que venden en libros de autoayuda con corbata, sino otro más profundo: el de recuperar la capacidad de decidir y no limitarnos a medir nuestro éxito por nuestra capacidad de producción.

Por eso es tan potente la frase de Welsh. No es la enésima técnica para exprimir el día, sino un recordatorio de lo que ya sabíamos pero que solemos olvidar: que la vida no se mide en tareas completadas, sino en decisiones tomadas de forma consciente.

En Xataka | Cómo aprovecho al máximo mi tiempo y he mejorado mi productividad teletrabajando: 'Time Blocking'

Imagen destacada | Xataka

-
La noticia No necesitamos más métodos de productividad. Necesitamos volver a tener un propósito fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

Cómo Google mantiene su buscador rápido y confiable: la ingeniería detrás de cada milisegundo

Vamos a explorar cómo Google logra que su buscador siga siendo tan rápido como confiable, incluso cuando el planeta entero lo utiliza al mismo tiempo.

Lo que significa realmente «buscar en Google» en 2025

Buscar en Google hoy es mucho más que recibir una lista de enlaces. La experiencia incluye fragmentos enriquecidos, gráficos de conocimiento, resúmenes generados con inteligencia artificial y resultados personalizados. Con toda esta complejidad, podría pensarse que los tiempos de carga aumentarían, pero no es así.

Google ha logrado reducir la latencia —es decir, el tiempo que transcurre entre que haces una búsqueda y ves los resultados— incluso mientras incorpora nuevas funciones. En otras palabras, no solo mantienen el ritmo: lo aceleran.

El arte de ganar milisegundos

Imagínate un equipo de mecánicos de Fórmula 1 ajustando cada tornillo para ganar décimas de segundo. Así trabajan los ingenieros de Google con el buscador: analizan cada componente, identifican dónde se puede mejorar y eliminan lo que ya no aporta valor.

Por ejemplo, si una nueva función añade algo de tiempo al proceso, otro equipo se encarga de compensarlo optimizando otro aspecto del sistema. Este enfoque en cadena ha permitido que, solo en los últimos dos años, los usuarios de Google ahorren colectivamente más de un millón de horas cada día. Es como devolverle tiempo al mundo, milisegundo a milisegundo.

Inteligencia artificial sin sacrificar velocidad

Las nuevas funciones basadas en IA, como los resúmenes inteligentes (AI Overviews), también han sido optimizadas pensando en la velocidad. Gracias a mejoras específicas en este campo, se ha logrado ahorrar medio millón de horas adicionales al día a los usuarios.

Lo notable aquí es que se trata de funciones que, por su complejidad, podrían ser más lentas. Sin embargo, Google ha logrado que se ejecuten de manera tan fluida como el resto del buscador, garantizando que la experiencia siga siendo ágil incluso con lo más avanzado de la tecnología.

Confiabilidad a toda prueba: así se evita el colapso

De poco sirve que un buscador sea rápido si no funciona cuando más lo necesitas. Por eso, Google también pone un enorme énfasis en la fiabilidad. Ya sea durante un evento deportivo global, una catástrofe natural o cualquier pico inesperado de tráfico, el sistema está diseñado para mantenerse firme.

Anticiparse al problema antes de que ocurra

Los ingenieros de Google usan señales sutiles para monitorear el comportamiento de los usuarios, como por ejemplo si alguien recarga una página más de lo habitual. Estos pequeños indicadores pueden sugerir que algo no está funcionando como debería. Así, se activan alertas y se aplican correcciones antes de que el problema se generalice.

Este enfoque proactivo evita que los errores se conviertan en caídas masivas del servicio. Además, se prueban continuamente «planes de contingencia», como si fueran simulacros de incendio, para garantizar que todo siga funcionando aun en situaciones extremas.

Una infraestructura pensada para resistir

Mantener una herramienta como Google Search no es solo cuestión de software. También hay una infraestructura física impresionante detrás. Los servidores distribuidos por todo el mundo están diseñados para procesar miles de millones de búsquedas diarias, sin importar si el dispositivo del usuario es de gama alta o un teléfono básico.

Lo más sorprendente: en promedio, una persona tendría que hacer unas 150.000 búsquedas para toparse con un fallo provocado por el sistema. Traducido a la vida cotidiana, si hicieras 10 búsquedas por día, tardarías más de 40 años en ver un error del servidor. Esto da una idea del nivel de excelencia técnica y redundancia que maneja Google.

Un esfuerzo invisible, pero constante

Todo este trabajo ocurre en segundo plano. Como el mantenimiento de una autopista que se hace de noche para no afectar el tráfico, las mejoras y correcciones en el buscador se aplican de forma continua y sin interrumpir la experiencia del usuario.

Gracias a esta mentalidad de mejora constante, Google Search no solo se adapta al crecimiento exponencial de información disponible en la web, sino que sigue siendo una herramienta inmediata, confiable y relevante para quienes la usan cada día.

¿Por qué esto importa?

En una época en la que todo se mueve rápido y cada segundo cuenta, la calidad de una herramienta digital se mide tanto por lo que ofrece como por cómo y cuándo lo entrega. Google ha logrado que su buscador sea no solo un canal de acceso a la información, sino un compañero confiable que responde al instante, incluso cuando el mundo entero lo está consultando.

Es como si tuvieras una biblioteca universal al alcance de tu mano, sin tener que esperar a que el bibliotecario busque el libro. Solo que, en este caso, los bibliotecarios son miles de ingenieros trabajando incansablemente para que tú no tengas que pensar en nada más que en lo que quieres saber.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Encontrar tests rápidos y fiables para el Alzheimer es una misión clave para la ciencia. Y tenemos un nuevo candidato

Encontrar tests rápidos y fiables para el Alzheimer es una misión clave para la ciencia. Y tenemos un nuevo candidato

Adelantarnos al Alzheimer. Es un objetivo simple pero difícil de lograr ya que los síntomas de esta enfermedad tienden a aparecer cuando el trastorno está avanzado y ya ha causado importantes daños a nuestro cerebro. Un objetivo difícil pero que puede ayudarnos a tratar la enfermedad con mayor eficacia, logrando atrasar la aparición de algunos de sus síntomas como el deterioro cognitivo.

Quizá algún día nos ayude a curarla.

En la sangre. Un grupo de investigadores ha puesto a prueba un nuevo test sanguíneo destinado a la detección temprana de la enfermedad de Alzheimer. El test se basa en un biomarcador presente en la sangre, P-tau217, el cual muestra cambios mucho antes de la aparición de síntomas en las personas con la enfermedad.

El estudio mostró una precisión al detectar la enfermedad superior al 90%. Estos resultados además no dependían de la edad o género de los participantes, un tampoco de la existencia de comorbilidades o de si el test era realizado por especialistas o personal de atención primaria.

Este marcador puede ser medido con herramientas simples y baratas y el proceso es automático, lo que puede facilitar la detección en diversas circunstancias, democratizando el diagnóstico de la enfermedad. “Este es un importante paso para llevar simples pruebas sanguíneas para la enfermedad de Alzheimer a los sistemas sanitarios de todo el mundo”, destacaba en una nota de prensa el equipo responsable del ensayo.

P-tau217. Los métodos de detección basados en el compuesto P-tau217 no son exactamente nuevos. Este tipo de herramientas se implementan ya en Estados Unidos y se espera que pronto lleguen al resto del mundo, señala el propio equipo.

El nuevo método busca ofrecer una alternativa más simple a las herramientas ya disponibles. El nuevo estudio analizó la precisión de este nuevo test en las condiciones en las que sería usado, no solo en clínicas especializadas sino también en atención primaria.

En tres países. El ensayo se realizó a partir de 1.767 participantes con síntomas cognitivos repartidos en tres países: España, Italia y Suecia. Los detalles del estudio fueron publicados en un artículo en la revista Nature Medicine.

El nuevo test incluyó dos puntos de corte. Uno de ellos servía para interpretar los resultados negativos: a partir de este umbral el test descarta la presencia de la enfermedad. El segundo de los puntos de corte sirve para hallar los positivos: este umbral evidencia la presencia de la enfermedad.

Esto deja, entre uno y otro corte, una “zona gris” en la que los resultados son inconcluyentes, sin embargo el uso de un test con un solo umbral reducía levemente la precisión de la herramienta diagnóstica.

Por encima del 90%. El estudio mostró que el test lograba una precisión de entre el 92% y el 94% cuando se utilizaba en su modalidad de dos cortes. Sin embargo, esta precisión bajaba a niveles entre 83% y 87% cuando se empleaba solo un punto de corte y se aplicaba a personas de edades más avanzadas.

“Cuando el método se puso a prueba en grrupos de pacientes, la precisión fue de entre el 92% y el 94%”, explicaba Noëlle Warmenhoven, primera firmante del estudio. “Esto es prometedor puesto que este método probablemente se convierta en uno de los más utilizados en la práctica clínica alrededor del mundo.”

En Xataka | Tenemos una nueva "teoría del todo" para comprender el Alzheimer. Su clave está en unos pequeños gránulos

Imagen | Kaboompics.com

-
La noticia Encontrar tests rápidos y fiables para el Alzheimer es una misión clave para la ciencia. Y tenemos un nuevo candidato fue publicada originalmente en Xataka por Pablo Martínez-Juarez .



☞ El artículo completo original de Pablo Martínez-Juarez lo puedes ver aquí

El nuevo test para descubrir si un modelo de IA o no es verdaderamente inteligente: ponerle a jugar a Pokémon

El nuevo "test" para descubrir si un modelo de IA o no es verdaderamente inteligente: ponerle a jugar a Pokémon

El psicólogo suizo Jean Piaget tenía una definición de inteligencia especialmente interesante. Él decía que "la inteligencia es lo que usas cuando no sabes qué hacer". Ese puede ser un elemento clave de una nueva tendencia para medir la capacidad de la inteligencia artificial. Una que pone a la IA a jugar a Pokémon.

¿Cómo de inteligente es la inteligencia artificial? Ya hay pruebas que permiten valorar la capacidad de la IA a la hora de resolver problemas científicos, matemáticos o de programación. Todo eso ayuda a "medir" el progreso de estos modelos, pero frente a todas esas técnicas hay una idea singular: la de medir la citada capacidad de la IA jugando a Pokémon.

Claude inició la tendencia. Los responsables de Anthropic tuvieron la ocurrencia de probar cómo se comportaría su modelo de IA, Claude 3.7, al jugar a Pokémon Red. Así que hicieron uso de su herramienta de navegación automática para ver cómo utilizaba sus capacidades para ir jugando al videojuego. Crearon un canal de Twitch e incluso hay un seguimiento de cómo le está yendo en Reddit.

Y ahora Gemini Pro recoge el guante. Un desarrollador que no tiene afiliación alguna con Google ha decidido aplicar la misma idea, pero con Gemini Pro 2.5 Experimental como modelo de IA para probarla. En su canal de Twitch está mostrando una partida de Pokémon Blue (era el que conocía más este desarrollador) ejecutándose en un emulador de la Game Boy Advance.

¿Quién gana? De momento Gemini Pro 2.5 Experimental parece estar haciéndolo algo mejor. Claude se quedó atascado en una fase de juego un par de veces, por ejemplo, lo que ha obligado a volver a iniciar sus partidas. Gemini parece estar avanzando sin tantos problemas, aunque no juega de la misma manera que Claude y por ejemplo tiene acceso a un minimapa que según su creador compensa una de las limitaciones de Gemini, que no cuenta con herramientas de navegación automática como Claude.

Captura De Pantalla 2025 04 16 A Las 11 54 48

Por qué Pokémon para la Game Boy. La versión de Pokémon para la Game Boy Advance que se está usando en estos experimentos es perfecta para evaluar esas capacidades de los LLM por varias razones. Por ejemplo, se trata de un videojuego por turnos, lo que permite a la IA "pensar" su siguiente movimiento. Pero además es un juego gráficamente simple, lo que hace más sencillo para estos modelos "ver" la pantalla y entender lo que pasa en cada momento sin que eso sea muy costoso a nivel de recursos.

Un benchmark sorprendentemente útil. Esta forma de evaluar lo inteligente que es una IA puede ser tan reveladora como las pruebas de programación o de matemáticas. O más, incluso. Si alguien le da a un niño de 10 años una Nintendo Switch, ese niño aprenderá a jugar a cualquier juego en minutos. Sin embargo las IAs suelen tenerlo especialmente difícil en este escenario, y acaban ejecutando movimientos ilegales.

Nada de memorización. Muchos de los benchmarks utilizados para medir la capacidad de los modelos de IA se basa en su "memoria". Cuando resuelven un problema es normalmente porque la solución forma parte de su conjunto de datos de entrenamiento, o ya había un problema similar solucionado y que pueden "replicar" o "regurgitar". En esta aproximación la propuesta es algo diferente, y exige cierta capacidad de adaptación a los modelos de IA.

ARC-AGI y el juego Snake. En febrero la ARC Prize Foundation, que desarrolla un benchmark igualmente llamativo para modelos de IA, experimentó con otro videojuego sencillo: una versión del mítico Snake que enfrentaba a diversos modelos de IA para ver cómo se comportaban. Los modelos de razonamiento fueron los claros ganadores (el 78% de victorias), y de nuevo esto les mostró la relevancia de este tipo de videojuegos para mejorar los modelos de IA en el futuro.

La IA aprende a adaptarse. Como veníamos diciendo, este tipo de benchmarks son especialmente interesantes porque nos permiten comprobar si un modelo de IA es capaz de adaptarse a nuevas situaciones y retos y de superarlas. Es algo que empresas como DeepMind llevan tiempo haciendo con algunos de sus desarrollos, y sin duda es una alternativa interesante que explorar para los desarrolladores de estos modelos.

En Xataka | He usado Claude 3.7 durante horas. Es lo más cercano a un cerebro humano que he sentido con una IA

-
La noticia El nuevo "test" para descubrir si un modelo de IA o no es verdaderamente inteligente: ponerle a jugar a Pokémon fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí