2 de diciembre de 2025

Usar Netflix en 2018 era mucho mejor que ahora: hemos normalizado que las experiencias se degraden

Usar Netflix en 2018 era mucho mejor que ahora: hemos normalizado que las experiencias se degraden

Netflix acaba de eliminar una de las funciones más básicas, útiles y veteranas de su servicio: la capacidad de enviar contenido (cast) directamente desde el móvil a la mayoría de televisores y dispositivos tipo Chromecast. Lo han hecho además de forma silenciosa, sin comunicados de prensa ni grandes anuncios. Es otra gota que colma un vaso cada vez más terrible.

Qué ha pasado. Netflix ya no admite la transmisión de sus contenidos desde un dispositivo móvil a la inmensa mayoría de TVs o de de dispositivos tipo Android TV. La solución que ofrecen es que busques el mando a distancia de tu TV y navegues por la aplicación nativa de Netflix en ella. Según varios usuarios el cambio se aplicó con cero advertencias alrededor del 10 de noviembre, y Netflix no lo anunció, aunque ha actualizado una de sus páginas de soporte para indicar que esa función ya no está activa. 

Es lamentable. Lo más sangrante no es solo la eliminación de la función, sino la letra pequeña que la acompaña en esa página de soporte. Según la nueva normativa, el soporte para esa función de casting queda restringido a los Chromecast de tercera generación (o anteriores) que no venían con mando a distancia pueden seguir recibiendo esa señal. Y solo podrá aprovecharse esa función en los planes sin publicidad: si tienes el plan con anuncios, la función estará bloqueada incluso con ese hardware compatible. Es una jugada que recuerda a la que realizaron en 2019 cuando eliminaron el soporte de AirPlay en 2019 bajo la excusa de "garantizar el estándar de calidad". Frases corporativas tradicionales que hoy suenan más vacías que nunca. 

Una señal de algo más inquietante. Pero no dejemos que un árbol nos impida ver el bosque, porque esto es en realidad otra gota en el vaso colmado de la paciencia de los usuarios. El periodista y escritor Cory Doctorow creó el término "enshittification" (mierdificación) para definir ese fenómeno que estamos viviendo con las plataformas de streaming: 

  • Primero las plataformas son buenas con sus usuarios para captarlos
  • Luego abusa n de ellos para mejorar el negocio para sus clientes comerciales
  • Luego abusan de todos para capturar el valor para sí mismas

De mal en peor. Si echamos la vista atrás, usar Netflix en 2018 era objetivamente una experiencia de usuario muy superior a la actual. La interfaz era más limpia, el catálogo no estaba tan fragmentado por guerras de licencias, el cast funcionaba universalmente y atentos: la propia compañía te animaba a compartir tu contraseña en Twitter como acto de amor y de buenismo tecnológico. Compartir era vivir hasta que dejó de serlo y Netflix inició su particular cruzada con las cuentas compartidas. Con la Inquisición hemos topado.

Esto va de control. Esta vez no ha ocurrido como en 2019 con AirPlay, y no hay explicación o argumento detrás de esa eliminación de la característica. Lo que está claro es que Netflix ha decidido que tu comodidad al usar el móvil como mando es un daño colateral aceptable. Con ello consiguen forzarte a usar su interfaz de TV, donde controlan mucho mejor la visibilidad de sus contenidos originales y la publicidad. 

Netflix no está sola en este barco. La degradación de la experiencia de usuario es una tendencia transversal en el mercado, y afecta a otros servicios de streaming. Amazon Prime Video, que nació como un servicio premium libre de interrupciones, comenzó a mostrar publicidad y ha ido aumentando su aparición de forma gradual y consistente. Solo puedes librarte de ella a menos que pagues un extra, rompiendo un poco así la promesa básica del servicio: lo que antes era un valor añadido por ser cliente de Prime ahora es un escaparate publicitario por el que paradójicamente ya estás pagando una cuota anual.

Ruido. Lo mismo estamos viendo en dos servicios que dominan nuestros ratos de ocio: tanto YouTube como Spotify se han llenado de publicidad y la experiencia de usuario es objetivamente peor de lo que era hace pocos años. En Spotify además la estrategia ha sido aún más sangrante, porque allí aparecen ahora vídeos verticales al estilo TikTok y una intrusión visual absoluta. La funcionalidad y el minimalismo se han sacrificado porque lo que importa es el engagement.

Los usuarios no reaccionamos. Lo alarmante de esta situación no es que las empresas intenten maximizar sus beneficios; eso es lo esperable. Lo verdaderamente inquietante es lo rápido que nosotros, los usuarios, hemos aceptado que esa experiencia de usuario ha retrocedido y está retrocediendo sin que hagamos nada por evitarlo. Hemos normalizado la pérdida de derchos y funciones, y aunque ha habido algunas reacciones efímeras en redes sociales, estas no han pasado de una anécdota. La eliminación de las cuentas compartidas de Netflix en 2022, por ejemplo, provocó muchas críticas y comentarios de usuarios que presumían de dejar la plataforma. Hubo ciertamente una caída, pero no duró mucho: hoy Netflix tiene más usuarios que nunca.

La filosofía del menos da una piedra. Esa pasividad colectiva es lo que permite que estos cambios ocurran sin que si quiera las empresas lo anuncien. Las empresas llevan años entrenándonos para agradecer que el servicio simplemente funcione. La mierdificación continúa su curso, y nuestra falta de protestas y de acciones al respecto es como la gasolina que alimenta esa terrible tendencia. 

En Xataka | Ni una Navidad sin las chimeneas navideñas de Netflix. Estas son las de este año, y vienen con gamificación incluida

-
La noticia Usar Netflix en 2018 era mucho mejor que ahora: hemos normalizado que las experiencias se degraden fue publicada originalmente en Xataka por Javier Pastor .

]]>

☞ El artículo completo original de Javier Pastor lo puedes ver aquí

EE.UU. lanza la Misión Genesis: un nuevo capítulo en la ciencia impulsada por inteligencia artificial

Células cerebrales que aprenden a jugar Pong, la última hazaña alcanzada por la ciencia

La administración estadounidense ha presentado la Misión Genesis, una iniciativa que busca integrar la inteligencia artificial (IA) en el corazón de la investigación científica. El anuncio, realizado por la Casa Blanca el 24 de noviembre, plantea un ambicioso objetivo: utilizar la vasta infraestructura científica del país como una plataforma unificada para el desarrollo de IA, con el fin de multiplicar la productividad y el impacto de la ciencia estadounidense en las próximas décadas.

Una infraestructura científica al servicio de la IA

El eje central del plan es la creación de una «plataforma cerrada de experimentación con IA» que unificará las bases de datos y supercomputadoras de los 17 laboratorios nacionales del Departamento de Energía. Esta red permitirá el entrenamiento de modelos fundacionales científicos, sistemas de IA capaces de generar hipótesis, realizar simulaciones complejas y automatizar experimentos. El plan también contempla la participación de universidades, empresas tecnológicas y centros de investigación, incluyendo a gigantes como Microsoft, Nvidia, Google y Amazon.

La comparación oficial con el Proyecto Manhattan no es casual. Así como aquel programa transformó la ciencia y la política mundial en los años 40, la Misión Genesis aspira a redibujar el mapa de la investigación científica mediante el uso intensivo de IA.

Aplicaciones previstas y ambiciones globales

Los campos de aplicación de la Misión Genesis son diversos y de alto impacto: biotecnología, materiales críticos, energía nuclear, fusión, ciberseguridad, cuántica y semiconductores. El plan pretende que, para septiembre de 2026, la plataforma ya esté en funcionamiento enfrentando un reto científico significativo. La promesa es que procesos de investigación que hoy tardan años podrían resolverse en semanas o meses.

Sin embargo, el anuncio deja algunas preguntas abiertas. No se ha especificado el presupuesto ni el calendario exacto de financiación. Durante el primer año, se espera que los fondos provengan de la reorientación de recursos existentes, y el presupuesto a largo plazo dependerá del apoyo del Congreso, que hasta ahora ha mostrado signos de respaldo bipartidista.

Un liderazgo en IA con tensiones internacionales

Estados Unidos ya posee una clara ventaja en la carrera global por la inteligencia artificial aplicada a la ciencia. Tres cuartas partes de los centros de cálculo de alto rendimiento del mundo están en suelo estadounidense, según Epoch AI, mientras que China concentra un 15% y la Unión Europea apenas un 5%. Esta supremacía también se refleja en el dominio de las principales empresas tecnológicas, cuyos recursos permiten inversiones multimillonarias en centros de IA y nuevos productos.

La Misión Genesis se suma a otras iniciativas del gobierno estadounidense para fortalecer su liderazgo, incluyendo inversiones en la industria de semiconductores, incentivos a fabricantes como Intel y Nvidia, y una estrategia nacional que abarca desde la educación hasta la regulación de ciertos usos de la IA.

La respuesta internacional: entre la cooperación y la carrera

Este impulso estadounidense ha encendido alarmas en otras regiones. Investigadores como Holger Hoos, de la Universidad RWTH Aachen en Alemania, subrayan la necesidad de que otros países aceleren su respuesta. Hoos y otros expertos abogan por una estrategia multinacional que garantice que el uso de la IA en la ciencia sea abierto, ético y libre de sesgos geopolíticos.

La Unión Europea ha dado algunos pasos en esa dirección, especialmente a través del programa Horizon Europe y la reciente creación del consorcio RAISE (Resource for AI Science in Europe), cuyo objetivo es conectar herramientas, datos e investigadores en toda Europa. No obstante, el presupuesto inicial de 107 millones de euros para 2026-2027 se percibe como limitado frente a la escala del desafío.

Canadá, Reino Unido, Japón y otros países también están definiendo sus propios planes para integrar IA y ciencia, pero el temor creciente es que el eje del progreso quede concentrado entre Estados Unidos y China, dejando a otros actores rezagados o en situación de dependencia tecnológica.

Riesgos y dilemas de una ciencia automatizada

El uso de IA en ciencia ya ha dado resultados espectaculares, como los avances en química de proteínas que llevaron a dos investigadores de Google DeepMind a ganar el Nobel en 2024. La posibilidad de descubrir nuevos medicamentos, mejorar la simulación de fusión nuclear o crear materiales innovadores está al alcance. Sin embargo, también existen riesgos significativos: desde la generación de datos falsos en ensayos clínicos hasta la introducción de sesgos ideológicos en investigaciones sociales y económicas.

Expertos coinciden en que estos peligros pueden ser gestionados si el desarrollo de la IA se lleva a cabo con transparencia, responsabilidad y colaboración internacional. De lo contrario, el entusiasmo por la eficiencia podría eclipsar la rigurosidad científica, con consecuencias difíciles de prever.

Un llamado a la acción global

La Misión Genesis podría servir como punto de inflexión, no solo para la ciencia estadounidense, sino para la forma en que la comunidad internacional concibe la investigación en la era de la IA. Aunque la orden ejecutiva deja abierta la posibilidad de colaboraciones internacionales, el enfoque inmediato es doméstico. Para muchos científicos, esto es una señal de que ha llegado el momento de unir fuerzas globalmente, antes de que el conocimiento científico y sus beneficios queden concentrados en pocas manos.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Hay 500 millones de de usuarios que podrían perfectamente actualizar a Windows 11. El problema es que no quieren

Hay 500 millones de de usuarios que podrían perfectamente actualizar a Windows 11. El problema es que no quieren

Si estás leyendo esto y sigues usando Windows 10, estás en riesgo. Hace mes y medio Microsoft dio por finalizado el periodo de soporte oficial de este sistema operativo que se lanzó en 2015. Lo curioso es que lo que debería estar pasando no está pasando.

Dell como ejemplo de lo que pasa en el mundo. El COO de Dell, Jeff Clarke, participó recientemente en una entrevista en The Motley Fool y le preguntaron por su visión sobre cómo el fin de Windows 10 afectaría a la migración de los usuarios a Windows 11. Ahí es cuando confesó que todas sus expectativas se vinieron abajo.

El fin de Windows 10 apuntaba a un crecimiento de Windows 11. De hecho, Clarke explicó que antes de que ocurriera tenía mucha confianza en que ese fin de ciclo llevaría a la gente a comprarse un nuevo PC o a instalar Windows 11 en sus equipos. Sin embargo el ejecutivo indicó que se han dado cuenta de que la adopción de Windows 11 está entre 10 y 12 puntos por debajo de lo que ocurrió con anteriores generaciones: la gente no está actualizando a este sistema operativo como esperaban.

500 millones de usuarios simplemente pasan de actualizar. La estimación de Clarke es que hay unos 1.500 millones de dispositivos (PCs y portátiles) con Windows, y ahí es donde hizo la declaración más inquietante: 

"Hay alrededor de 500 millones de PCs capaces de ejecutar Windows 11 que no se han actualizado. Y tenemos otros 500 millones que tienen cuatro años y no pueden ejecutar Windows 11. Todos ellos plantean una gran oportunidad para actualizar a Windows 11".

Y sin embargo, no lo hacen, o lo que es lo mismo: 

  • Un tercio de los usuarios mundiales de Windows no tienen un PC oficialmente compatible con Windows 11 y no pueden actualizar directamente
  • Otro tercio tenen un PC compatible con Windows 11 pero los usuarios simplemente han elegido no hacerlo.

¿Si funciona, no lo toques? Para muchos usuarios, incluidos los empresariales, la norma no escrita suele ser precisamente esa de "si funciona, no lo toques". Esto es especialmente delicado en las empresas, porque pueden depender de sistemas legacy y si actualizan a nuevas versiones pueden aparecer conflictos que afecten a la operativa del propio negocio. Y aún así...

Un agujero de seguridad colosal. Una vez más lo realmente preocupante de esto es que aunque dichos PCs y portátiles estén funcionando de forma correcta, si están basados en Windows 10 o versiones anteriores de Windows, están absolutamente expuestos a todo tipo de fallos de seguridad. En cualquier momento dichos PCs podrían ser víctimas de malware que los convierta en miembros de alguna botnet, o de un ransomware que impida que podamos acceder a nuestros datos a no ser que paguemos un rescate. Esto ya es malo para usuarios particulares, pero para empresas el riesgo es descomunal.

Un rayo de esperanza. Aquí solo queda esperar a que los usuarios se den cuenta de que actualizar sus equipos es importante y relativamente fácil. De hecho en los equipos oficialmente compatibles esto es básicamente cuestión de darle al botón "Siguiente" al ejecutar el asistente de actualización. 

Si tu equipo no es compatible, hay truco. En equipos que teóricamente no cumplen las condiciones —como por ejemplo, que no tengan soporte nativo para TPN 2.0— tampoco hay excesivos problemas, porque es posible "engañar" a Windows con un comando o incluso con el uso de una versión modificada de Windows 11. Vamos, que aunque parezca que no se pueda actualizar a Windows 11, lo más normal es que en realidad sí se pueda.

Y por supuesto, está Linux. Si por alguna razón lo que los usuarios no quieren es actualizar a Windows 11 porque no les gusta, las opciones están ahí en forma de distribuciones Linux. Parece que ese camino está siendo el elegido por un número ya notable de usuarios, y lo demuestra el hecho de que por ejemplo Zorin OS —un fork de Ubuntu— ha visto cómo su distribución Zorin OS 18, que llegó justo en el momento en que Windows 10 dejaba de tener soporte oficial, se ha descargado más de un millón de veces en los últimos días.

En Xataka | Si tienes un PC antiguo, existe una alternativa eficaz contra los requisitos de Windows 11 y el bloatware: así funciona Flyoobe

-
La noticia Hay 500 millones de de usuarios que podrían perfectamente actualizar a Windows 11. El problema es que no quieren fue publicada originalmente en Xataka por Javier Pastor .

]]>

☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Bill Gates explicó en 1991 lo que significa NT en Windows NT, en el que está basado Windows 11. Un desarrollador le contradice

Bill Gates explicó en 1991 lo que significa "NT" en Windows NT, en el que está basado Windows 11. Un desarrollador le contradice

Si utilizas Windows 10 o Windows 11, en el fondo sigues utilizando Windows NT. Es el corazón (el kernel) que ha mantenido vivo al sistema operativo de Microsoft desde que decidieron abandonar los cimientos de MS-DOS con la llegada de Windows 2000 y XP. Durante décadas, la "verdad oficial" sobre qué significan esas dos letras fue clara. Pero según un histórico ex desarrollador de Microsoft, hemos vivido engañados por el marketing.

La historia aceptada por todos viene del propio Bill Gates. En una entrevista de 1991, el fundador de Microsoft aseguró categóricamente que NT eran las siglas de "New Technology" (Nueva Tecnología). Tenía sentido: era un sistema de 32 bits, moderno y destinado a romper con el pasado. Sin embargo, Dave Plummer, uno de los desarrolladores más veteranos de la compañía (y padre del Administrador de tareas), decidió corregir al mismísimo magnate.

Ni "New", ni "Technology": la clave fue un fallido chip de Intel

Plummer Nt Haz click en la imagen para ver el contenido del tuit.

Según reveló Plummer en X, el origen del nombre es mucho más técnico y menos grandilocuente. "NT no significa New Technology", sentencia el ingeniero. Para entender la realidad hay que viajar a finales de los 80. Microsoft empezó a desarrollar este nuevo sistema operativo no sobre los procesadores x86 que todos conocemos y usamos aún hoy, sino sobre un chip RISC de Intel llamado i860. El nombre en clave de ese chip durante su desarrollo era "N10" (o N-Ten).

El equipo de Microsoft utilizaba un emulador del chip N10 para escribir el código del nuevo sistema. Dado que el proyecto vivía y respiraba sobre la arquitectura del N10, el sistema operativo heredó el nombre: NT (N-Ten).

¿Mintió Bill Gates? No exactamente, pero hizo lo que mejor sabía hacer Microsoft: branding. Explicar al gran público que el nombre de tu revolucionario sistema operativo viene de un chip de Intel que acabó siendo un fracaso comercial (el i860 nunca despegó) no habría sido atractivo. Decir que significaba "New Technology" era perfecto: coges unas siglas que ya tienes y les inventas un significado nuevo que venda mejor.

El clásico choque entre la visión del ingeniero y la del marketing. Para Plummer y el equipo de código, NT siempre será el recuerdo del hardware N10 donde todo empezó. Bill Gates logró que "New Technology" se convirtiera en la verdad para el resto de mortales.

Al final, ambas historias conviven. La inspiración técnica fue el chip, pero la razón por la que el nombre llegó a las cajas de las tiendas fue la "Nueva Tecnología". Una pequeña mentira piadosa viva durante tres décadas.

En Genbeta | Cada edición de Windows no deja de engordar, y parte de la culpa la tienen las traducciones: Microsoft nunca las borra

-
La noticia Bill Gates explicó en 1991 lo que significa "NT" en Windows NT, en el que está basado Windows 11. Un desarrollador le contradice fue publicada originalmente en Genbeta por Antonio Sabán .

]]>

☞ El artículo completo original de Antonio Sabán lo puedes ver aquí

La Universidad de Tokio cree haber resuelto el enigma de Kepler-56: una estrella que se mueve como si estuviera borracha

La Universidad de Tokio cree haber resuelto el enigma de Kepler-56: una estrella que se mueve como si estuviera borracha

A los astrónomos les encantan los misterios, y Kepler-56 lleva años siendo uno de los grandes rompecabezas de nuestra galaxia. Esta gigante roja, situada a unos 3.000 años luz de la Tierra, gira demasiado rápido y con su estructura interna literalmente torcida. Ahora, tenemos una explicación.

Una estrella que gira mal. Para entender por qué Kepler-56 es tan extraña, basta con compararla con cualquier estrella similar en su etapa de vejez. Cuando una estrella como el Sol agota su combustible, se expande y se convierte en una gigante roja. Por lo general, a medida que aumenta de tamaño, su rotación se ralentiza, como un patinador que extiende los brazos.

Sin embargo, Kepler-56 hace todo lo contrario: su capa exterior gira a una velocidad absurda, 10 veces más rápida de lo normal para una gigante roja de su tipo. Y lo más extraño es que el núcleo de la estrella y su envoltura exterior giran con ejes inclinados en direcciones diferentes.

Algo no cuadraba. Kepler-56 tiene dos planetas confirmados girando a su alrededor (Kepler-56 b y Kepler-56 c), gigantes gaseosos que orbitan muy cerca de su estrella anfitriona. Hasta ahora, la teoría que intentaba dar sentido a los extraños movimientos de Kepler-56 era que estos dos planetas tiraron de la estrella mediante fuerzas de marea, acelerando su giro.

Pero Takato Tokuno, investigador de la Universidad de Tokio, se dio cuenta de que esa explicación no se sostenía. Para que esos planetas fueran los responsables, la eficiencia de las mareas tendría que ser órdenes de magnitud superior a lo que dicta la física. Hacía falta otro actor en esta escena del crimen.

Era una mala digestión. El estudio liderado por Tokuno parece haber reconstruido lo que ocurrió: el sistema Kepler-56 tuvo un tercer planeta, pero la estrella se lo comió. Este tercer planeta, un Júpiter caliente, orbitaba peligrosamente cerca de la estrella, más que los dos planetas que vemos hoy. Tanto que, cuando la estrella comenzó a envejecer y expandirse, fue absorbido.

No fue un proceso suave. Tokuno explica el efecto con una analogía clara: como un meteorito gigante que golpease la Tierra de refilón. El planeta absorbería la energía del impacto y aceleraría su rotación. Al ser engullido, el planeta transfirió su momento angular a la atmósfera de la estrella, haciéndola girar a toda velocidad. Al ser golpeada en un ángulo extraño, la capa externa de la estrella acabó girando en un eje diferente al de su núcleo.

El ciclo de vida planetario. Según las matemáticas, el planeta engullido debió tener una masa de entre 0,5 y 2 veces la de Júpiter, y un periodo orbital frenético de entre uno y seis días. Su final no fue insólito para un planeta.

Sabemos que las estrellas devoran planetas. De hecho, se espera que nuestro propio Sol se trague a Mercurio, Venus y probablemente a la Tierra dentro de unos 5.000 millones de años. Pero pillar a una estrella aún haciendo la digestión es extremadamente difícil. Y eso es lo que al parecer estamos viendo.

Imagen | David A. Aguilar (CfA)

En Xataka | Qué es la paradoja de Fermi y por qué el arquitecto de la bomba atómica dio un giro a la búsqueda de vida extraterrestre

-
La noticia La Universidad de Tokio cree haber resuelto el enigma de Kepler-56: una estrella que se mueve como si estuviera borracha fue publicada originalmente en Xataka por Matías S. Zavia .

]]>

☞ El artículo completo original de Matías S. Zavia lo puedes ver aquí