6 de mayo de 2026

Microsoft está cansada de que la llamen "Microslop" y promete hacer lo más lógico: limpiar Windows de tanta basura

Microsoft está cansada de que la llamen "Microslop" y promete hacer lo más lógico: limpiar Windows de tanta basura

A lo largo de estos últimos años, Microsoft ha inundado Windows 11 de funciones basadas en IA. Muchas de estas herramientas no han sentado nada bien a la comunidad, por no mencionar la publicidad invasiva que ha rodeado al sistema operativo durante todo este tiempo. El resultado de esta estrategia sin rumbo claro ha desembocado en usuarios hartos, una reputación dañada y un mote que se ha vuelto viral: “Microslop”. Ahora la empresa quiere volver a recuperar la confianza de los usuarios, y su propio CEO ha tenido que salir a decirlo en público.

El problema tiene nombre propio, y es "Microslop". En los últimos meses, la obsesión de Microsoft por integrar IA en absolutamente todo (Windows, Edge, Bing, el bloc de notas, el menú de inicio) ha generado un gran rechazo por parte de los usuarios. En redes sociales son ya muchos los que apodan a la compañía como "Microslop", juego de palabras entre Microsoft y el término AI slop (contenido de dudosa calidad generado con inteligencia artificial).

La empresa intentó suprimir el término bloqueándolo en su servidor de Discord oficial de Copilot, lo que desató aún más la polémica y acabó obligándoles a cerrar ese servidor directamente. Tal y como comentábamos hace un par de meses, la maniobra fue un ejemplo perfecto de cómo agravar un problema en lugar de resolverlo.

Recall: la gota que colmó el vaso. La función estrella de Microsoft para Windows, que prometía una especie de memoria fotográfica del PC basada en IA, se convirtió en el símbolo de todo lo que estaba saliendo mal: una característica intrusiva, con serias implicaciones para la privacidad, lanzada sin que nadie la hubiese pedido. No fue la única. El bloc de notas, una de las herramientas más sencillas y queridas de Windows, también recibió funciones de IA que muchos usuarios consideraron un despropósito.

La comunidad respondió, entre otras cosas, creando aplicaciones de terceros para eliminar de un golpe todo ese contenido no deseado. Y de hecho, si quieres eliminar de golpe y porrazo todo lo que no te gusta de Windows 11, existe una herramienta que en esta casa hemos recomendado más de una vez: Win11Debloat.

Pavan Davuluri fue el primero en admitirlo. En marzo de este año, el máximo responsable de la división de Windows publicó un texto en el blog oficial de Windows reconociendo la existencia de "puntos de dolor" con respecto a las funciones de IA integradas en el sistema operativo, y comprometiéndose a que la compañía solo integrará inteligencia artificial donde sea "realmente significativo".

Prometió además una revisión del Feedback Hub, la herramienta para que los usuarios envíen sugerencias, para facilitar que las quejas lleguen mejor a los equipos internos.

Lo que dijo Satya Nadella. Durante la conferencia de resultados del tercer trimestre fiscal de Microsoft, el CEO de la compañía afirmó que Microsoft está llevando a cabo "el trabajo fundamental necesario para recuperar a los fans y fortalecer el compromiso" con Windows, Xbox (que también tiene lo suyo ahora), Bing y Edge, y que en el corto plazo la prioridad es "la calidad y servir mejor a los usuarios principales".

Nadella citaba mejoras como un mejor rendimiento en dispositivos con poca memoria RAM y una experiencia de actualización de Windows más ágil. La situación es bastante grave de por sí, y el hecho de que el propio CEO de Microsoft haya salido a la palestra a calmar las aguas de esta manera es un indicio de ello.

Por dentro, el proyecto se llama Windows K2. Según cuentan desde Windows Central, hay en marcha una iniciativa interna bajo ese nombre cuyo objetivo es acometer mejoras profundas en rendimiento, fiabilidad y experiencia de usuario. No llegará como una gran actualización con nombre propio, sino como mejoras continuas y graduales. El Explorador de archivos, uno de los elementos más criticados por su lentitud, es una de las prioridades. También lo son la barra de tareas y un mayor control sobre los widgets y el feed de noticias, dos de las incorporaciones más polémicas de Windows 11.

Hay motivos para el optimismo y para el escepticismo. Como bien apuntan desde TechRadar, resulta llamativo que Nadella mencione Bing y Edge en el mismo aliento que Windows cuando habla de recuperar a los usuarios de a pie, ya que son precisamente las dos herramientas que Microsoft lleva años intentando colar en el sistema operativo sin que nadie las reclame.

Por otro lado, la promesa de reducir la publicidad y los banners dentro de Windows, algo que Davuluri también incluyó en su compromiso de marzo, será la prueba del algodón real.

Y ahora, a ver si hay hechos. Microsoft tiene 1.600 millones de dispositivos Windows activos al mes, una cifra que Nadella aprovechó para recordar en la misma conferencia. Eso significa que, por mucho que Linux o macOS ganen terreno en el debate público, Windows sigue siendo el sistema operativo dominante en el escritorio. Pero esa posición de fuerza no garantiza la fidelidad. La empresa lo sabe, y por eso este discurso hacia la calidad y el feedback de los usuarios tiene más de necesidad que de estrategia. Tendremos que esperar para saber si la compañía va en serio con ello.

Imagen de portada | Microsoft y Wikimedia Commons

En Xataka | El MacBook Neo es la mayor amenaza existencial para el mercado de los portátiles Windows. Y los fabricantes no tienen respuesta

-
La noticia Microsoft está cansada de que la llamen "Microslop" y promete hacer lo más lógico: limpiar Windows de tanta basura fue publicada originalmente en Xataka por Antonio Vallejo .



☞ El artículo completo original de Antonio Vallejo lo puedes ver aquí

A Chrome siempre le ha gustado devorar RAM. Ahora descarga un modelo de IA de varios gigas sin avisar

A Chrome siempre le ha gustado devorar RAM. Ahora descarga un modelo de IA de varios gigas sin avisar

Chrome forma parte de la rutina digital de millones de personas hasta el punto de que muchas veces dejamos de preguntarnos qué hace exactamente mientras navegamos. Lo usamos para casi todo, le confiamos sesiones, extensiones, contraseñas, búsquedas y buena parte de nuestra vida en internet. Por eso sorprende tanto encontrarse con una carpeta de más de 4 GB asociada a un modelo de IA descargado por el propio navegador. No hablamos de una actualización menor ni de un archivo residual, sino de un componente grande que muchos usuarios probablemente no esperaban ver ahí.

La conversación empezó a tomar forma a partir de una publicación de Alexander Hanff en That Privacy Guy. Su hallazgo, en esencia, era sencillo de entender: según sus registros, Chrome había dejado en su ordenador un modelo de IA de varios gigas sin mostrarle un aviso claro durante el proceso. A partir de esa pista hice la comprobación en mi propio equipo, utilizado desde España, y encontré la misma carpeta a la que se refiere Hanff: OptGuideOnDeviceModel, dentro de los archivos internos de Chrome. En mi caso, macOS muestra esa carpeta con un tamaño de 4,27 GB, incluso cuando funciones como la barra lateral de Gemini todavía no está disponible en este mercado.

Modelo De Ia Google Chrome Gemini Nano descargado en mi ordenador

Gemini Nano no funciona como una descarga tradicional que buscamos, aceptamos e instalamos manualmente. En la documentación para desarrolladores de Chrome, la compañía explica que las capacidades integradas de IA están pensadas para ser fluidas y que la gestión del modelo se realiza automáticamente en segundo plano. También señala que la descarga inicial puede activarse cuando una función de IA integrada en el navegador necesita usar Gemini Nano por primera vez. Dicho de otra forma: el modelo puede llegar al ordenador como parte del funcionamiento interno de Chrome, no necesariamente mediante una acción clara y reconocible para el usuario.

Un modelo de IA que va más allá de un chatbot integrado

El modelo no se limita a impulsar un navegador con un chatbot integrado dentro Chrome. Google ya ha descrito usos de Gemini Nano en el propio dispositivo para detectar estafas de soporte técnico, un tipo de amenaza que muchas veces dura muy poco tiempo online y puede escapar a los sistemas tradicionales de rastreo. En ese escenario, Chrome puede proporcionar al modelo contenido de la página que el usuario está visitando para extraer indicios de riesgo. La IA, por tanto, también puede formar parte de la capa de seguridad del navegador.

Proteccion Google Chrome Gemini Nano también impulsa funciones de seguridad en Chrome

Ahí está buena parte del malestar. La IA en el navegador puede tener usos razonables, desde ayudar a detectar fraudes hasta alimentar funciones de escritura, traducción o resumen, pero el problema aparece cuando el usuario no entiende bien qué se ha descargado, por qué está ahí y cómo puede gestionarlo. Hanff lo resume con una crítica muy directa: “Chrome no preguntó. Chrome no lo muestra al usuario. Si el usuario lo elimina, Chrome vuelve a descargarlo”.

También hay voces que rebajan la gravedad del caso. En Reddit, un usuario defendía que el modelo solo se descarga cuando alguien intenta usar una función de IA que lo necesita y que, además, puede desactivarse desde las opciones de Chrome. Hanff respondía que sus registros mostraban otra cosa: el navegador se abrió de forma programada, permaneció unos minutos en una página sin interacción y aun así dejó rastro de la descarga. Más allá de esa discusión concreta, la propia documentación de Google apunta a un punto intermedio: la descarga puede activarse por funciones integradas y continuar en segundo plano incluso si la pestaña que la inició se cierra.

Chrome sí ofrece controles para reducir la presencia de algunas funciones de IA, pero no lo concentra todo en un panel único y fácil de entender. Desde los ajustes se pueden desactivar u ocultar determinadas piezas visibles, como Gemini en los mercados en los que está disponible, la asistencia de escritura, el historial de búsqueda o la búsqueda impulsada por IA. Para ir más al fondo, sin embargo, hay que entrar en un terreno más técnico, como las opciones experimentales de chrome://flags. Ese salto cambia bastante la experiencia: ya no hablamos de apagar una función clara, sino de tocar partes internas que también pueden estar vinculadas a prestaciones que el usuario quizá sí quiera conservar.

Aboton Firefox Ia Firefox ofrece una vía sencilla para desactivar las funciones de IA

Firefox ofrece un contrapunto interesante porque Mozilla ha agrupado sus controles de IA en un apartado propio dentro de los ajustes. Desde Firefox 148, esa sección ya aparece disponible como “Controles de IA” y permite bloquear mejoras actuales y futuras desde un lugar visible, sin tener que perseguir opciones repartidas por el navegador. También separa apartados concretos, como la IA en el dispositivo, las traducciones y los proveedores de chatbots en la barra lateral. Es una aproximación más directa: el usuario no solo ve que existen esas funciones, también entiende mejor qué puede activar, bloquear o dejar disponible.

La llegada de Gemini Nano a Chrome forma parte de un movimiento más amplio: los navegadores quieren convertirse en algo más que una ventana a internet y empezar a ejecutar tareas de IA dentro del propio equipo. Esa dirección puede tener ventajas reales, especialmente si sirve para reforzar la seguridad o hacer más ágiles algunas funciones. Pero el caso también deja un panorama visible. A algunos usuarios no les importará en absoluto que Chrome descargue modelos locales de forma automática; otros, en cambio, querrán saberlo, entender para qué sirve y tener margen para decidir.

Imágenes | Xataka con Grok | Captura de pantalla

En Xataka | No habla, no sube escaleras y ni siquiera obedece siempre: así es el robot que el creador del Roomba lleva 30 años queriendo desarrollar

-
La noticia A Chrome siempre le ha gustado devorar RAM. Ahora descarga un modelo de IA de varios gigas sin avisar fue publicada originalmente en Xataka por Javier Marquez .



☞ El artículo completo original de Javier Marquez lo puedes ver aquí

Hemos tardado 30 años en encontrar 6.000 exoplanetas. TESS acaba de encontrar 10.000 candidatos de un solo golpe

Hemos tardado 30 años en encontrar 6.000 exoplanetas. TESS acaba de encontrar 10.000 candidatos de un solo golpe

Desde que se detectó el primer exoplaneta en 1992, se han descubierto 6.273 planetas fuera del sistema solar. Sin embargo, los métodos de detección se han refinado tanto que se espera que en los próximos años esa cifra aumente súbitamente. No hay más que ver la lista que acaba de presentar un equipo de científicos de la Universidad de Princeton, en la que aparecen más de 10.000 nuevos candidatos. Puede que muchos no sean exoplanetas cuando se revisen, pero el hecho de haber encontrado tantísimos candidatos ya es una buena señal.

Un primer año muy bien aprovechado. Esta nueva lista procede del análisis del primer año de datos del Satélite de Exploración de Exoplanetas en Tránsito (TESS por sus siglas en inglés) de la NASA. En total se han encontrado 11.554 posibles exoplanetas. Sin embargo, de ellos 411 solo se captaron en un tránsito, así que no se pudieron calcular sus parámetros orbitales. Otros 1.052 ya se habían confirmado como exoplanetas en el pasado. Los 10.091 restantes sí que componen una lista de posibles exoplanetas que no se habían señalado antes. 

Transi¿qué? El tránsito es uno de los métodos más útiles de detección de exoplanetas. Normalmente, es mucho más fácil detectar la estrella en torno a la que gira un planeta que el planeta en sí. Al fin y al cabo, las estrellas son más grandes y brillantes. Sin embargo, la observación de la propia estrella puede darnos datos sobre la existencia de planetas girando alrededor. Y es que, cuando estos pasan entre la estrella y los telescopios que la observan, su luz se ve interrumpida. Como cuando una nube pasa frente al Sol o una polilla muy grande vuela frente a una bombilla. 

Sabemos que los planetas giran alrededor de sus estrellas con un periodo fijo. Por ejemplo, la Tierra tarda 364 días en dar una vuelta al Sol. Cuando esas interrupciones de la luz se ven de forma cíclica, se puede suponer que hay un planeta orbitando a la estrella. Eso es lo que detecta TESS.

Los avances de TESS. Hasta ahora, se han buscado exoplanetas en torno a estrellas muy brillantes. Sin embargo, TESS tiene la capacidad de estudiar también estrellas con una iluminación más débil. Eso permite hacer un análisis mucho más completo del cielo y encontrar muchos más candidatos a exoplanetas. De hecho, se generan muchísimos datos de golpe, por lo que también ha sido necesario utilizar un algoritmo de aprendizaje automático para analizarlos todos y encontrar a los verdaderos candidatos. 

Hay que confirmarlo. Existen otros motivos por los que la luz de una estrella podría verse interrumpida. Por ejemplo, las estrellas binarias eclipsantes o la propia actividad solar. Es por eso que el siguiente paso, una vez que se encuentra una lista de posibles exoplanetas, es analizarlos minuciosamente para descartar esas otras posibilidades y comprobar cuáles lo son realmente. 

Aún puede mejorar. Estos científicos ya están listos para comenzar también a analizar los datos del segundo año de observación de TESS. En este caso se han hecho algunos cambios en la metodología de estudio, como estudiar estrellas que se observan en distintas épocas del año. Así se pueden detectar también aquellos exoplanetas con un periodo largo, que a veces pasan desapercibidos si no se observan en el momento adecuado. 

Cuando el periodo es muy pequeño, pasan muchas veces entre la estrella y los telescopios, de modo que es más fácil detectar el tránsito. Si el periodo es grande, es complicado detectarlos si no se mira en el momento adecuado. Teniendo esto en cuenta, los autores del estudio esperan duplicar la lista de candidatos. Si esta vez han sido más de 10.000, la próxima vez que tengamos noticias sobre TESS podrían ser muchísimos más. 

Imagen | NASA

En Xataka | Cómo se formó el sistema solar: para que naciera la Tierra, primero tuvo que morir una estrella

-
La noticia Hemos tardado 30 años en encontrar 6.000 exoplanetas. TESS acaba de encontrar 10.000 candidatos de un solo golpe fue publicada originalmente en Xataka por Azucena Martín .



☞ El artículo completo original de Azucena Martín lo puedes ver aquí

Uber quiere convertir a sus conductores en una red de sensores para el coche autónomo

Interior de coche con pantalla mostrando Google Meet en CarPlay botón Join y cámara desactivada para reuniones de audio desde el coche sin vídeo compatible con Android Auto

Uber tiene un plan a largo plazo que va bastante más allá de llevar pasajeros de A a B: equipar los coches de sus conductores humanos con sensores para recopilar datos del mundo real para las empresas de vehículos autónomos, y potencialmente para cualquier empresa que entrene modelos de IA sobre escenarios físicos. Lo reveló Praveen Neppalli Naga, CTO de Uber, en el evento StrictlyVC de TechCrunch en San Francisco, el jueves 1 de mayo. Lo publica Connie Loizos en TechCrunch. No es solo una nueva línea de negocio: es la respuesta de Uber a la pregunta que la industria lleva años haciéndose: ¿qué pasa con la plataforma cuando los coches se conduzcan solos?

¿Qué es AV Labs y cómo funciona el plan de Uber?

La versión actual del proyecto se llama AV Labs, lanzado en enero de 2026. Hoy opera con una flota propia pequeña de coches equipados con sensores que Uber gestiona directamente, separada de la red de conductores. No son coches de conductores normales: son vehículos dedicados a la recopilación de datos.

Pero la ambición declarada del CTO es escalar eso a la red completa. Uber tiene millones de conductores en todo el mundo, y si una fracción de esos coches pudiera transformarse en plataformas móviles de recopilación de datos, la escala de lo que Uber podría ofrecer a la industria de vehículos autónomos (AV) superaría ampliamente a cualquier flota propia que una empresa de AV pueda desplegar por sí sola.

El argumento central de Naga es revelador: el cuello de botella para el desarrollo de vehículos autónomos ya no es la tecnología subyacente. «El cuello de botella es el dato», dijo. «Empresas como Waymo necesitan ir a recopilar datos, recoger escenarios diferentes. El problema para todas esas empresas es el acceso a esos datos, porque no tienen el capital para desplegar los coches y recopilar toda esa información».

Uber también está construyendo lo que Naga describió como una «AV cloud»: una biblioteca de datos de sensores etiquetados que las empresas socias pueden consultar y usar para entrenar sus modelos. Los socios también pueden ejecutar sus modelos entrenados en «modo sombra» contra viajes reales de Uber, simulando cómo habría actuado un AV sin poner ningún vehículo en la carretera.


25 empresas socias, 10.000 millones comprometidos y la sombra del pasado

Uber trabaja actualmente con 25 empresas de AV, incluyendo Wayve, que opera en Londres. También ha comprometido hasta 10.000 millones de dólares en inversión directa en robotaxis, según Reuters de abril de 2026. Ha invertido directamente en varias de esas empresas, incluyendo Lucid y Nuro.

El contexto histórico importa. Uber abandonó su propio programa de conducción autónoma hace años, una decisión que el cofundador Travis Kalanick ha calificado públicamente de error grave. En ese momento, la empresa vendió su unidad de vehículos autónomos a Aurora, reconociendo que no tenía la ingeniería de hardware ni el capital para competir con Waymo o Tesla en el desarrollo del AV.

Lo que está construyendo ahora es diferente: no quiere fabricar el coche autónomo, sino ser la capa de datos y distribución sobre la que funcionen todos. Como si hubiera vendido sus propias fábricas de coches pero se hubiera quedado con todas las autopistas.


Por qué importa: Uber quiere ser la capa de datos del sector AV

El movimiento tiene sentido estratégico profundo. Si los vehículos autónomos se generalizan, Uber enfrenta el riesgo de quedar fuera del juego como intermediario: Waymo puede llevar pasajeros directamente, Tesla también, y cualquier fabricante con flota propia puede prescindir de la plataforma.

La respuesta de Uber a ese escenario es convertirse en algo que los propios fabricantes de AV necesitan: datos de calidad, a escala, con cobertura geográfica que ninguno puede igualar por su cuenta. Con millones de conductores activos en cientos de ciudades, Uber tiene acceso a escenarios de conducción que tardarían décadas en replicar con flotas propias.

Hay, sin embargo, varios obstáculos prácticos. Naga lo reconoció abiertamente: antes de llevar sensores a la flota de conductores, hace falta entender los kits de sensores y cómo funcionan, navegar la regulación estado por estado en Estados Unidos para determinar qué puede capturarse legalmente, y definir qué significa «compartir datos» desde una perspectiva legal y contractual con los conductores.

El modelo de negocio tampoco está claro todavía. Naga afirmó que «el objetivo no es ganar dinero con estos datos», queriendo posicionar la iniciativa como democratización de la información. Pero Uber ya ha hecho inversiones de capital en varios de los actores del sector, y la capacidad de ofrecer datos propietarios a escala es un activo de negociación enorme.


Mi valoración

Llevo siguiendo la industria de vehículos autónomos desde los primeros experimentos de Waymo en Phoenix, y la estrategia de Uber me parece la jugada más inteligente que han hecho en años en este espacio.

Lo que más me convence es la lógica de la capa de datos. Nvidia ya se ha posicionado como proveedor transversal del sector con su plataforma Drive Hyperion, pero aporta hardware y software, no datos de situaciones reales en contexto urbano. Uber tiene el activo que Nvidia no puede replicar fácilmente: millones de coches en circulación real, en ciudades reales, con conductores reales que ya están en la carretera.

Lo que más me preocupa es el riesgo de confianza con los conductores. Si Uber empieza a instalar sensores en los coches de sus propios conductores para vender esos datos a terceros, la relación contractual y económica con esos conductores se complica de forma significativa. ¿Cuánto cobran los conductores por aportar sus coches como plataformas de datos? ¿Cómo se gestiona la privacidad de las personas grabadas? Son preguntas que ningún regulador va a dejar sin respuesta.

La pregunta a doce meses es si Uber puede convertir AV Labs en algo operativamente significativo antes de que Tesla y Waymo sigan expandiendo sus flotas de robotaxis a más ciudades. Si para entonces Uber es el proveedor de datos de referencia para todas esas empresas, tiene un negocio completamente nuevo. Si llega tarde, habrá apostado por una capa que nadie necesita.


Preguntas frecuentes

¿Cuántos conductores tiene Uber en todo el mundo?

Uber tiene millones de conductores activos globalmente, aunque la empresa no publica una cifra exacta y actualizada. En 2024 hablaba de varios millones de socios conductores activos en más de 70 países.

¿Qué es AV Labs de Uber?

Es el programa lanzado en enero de 2026 que recopila datos de conducción del mundo real para empresas de vehículos autónomos. Por ahora opera con una flota propia de coches con sensores, pero la visión a largo plazo es extenderlo a la red de conductores de la plataforma.

¿Quién paga a Uber por estos datos?

El modelo de negocio no está completamente definido. Uber ha declarado que no busca monetizar los datos directamente, pero sí hace inversiones de capital en empresas de AV socias. La posesión de datos propietarios a escala también le da ventaja en la negociación de acuerdos de distribución con esas empresas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

La IA roba el meme más famoso de internet y el autor pide que lo vandalicen

La IA roba el meme más famoso de internet y el autor pide que lo vandalicen

KC Green, el dibujante que en 2013 creó la viñeta del perro sentado sonriente rodeado de llamas que dice «This is fine», ha denunciado públicamente que la startup de IA Artisan ha usado su obra sin permiso en una campaña publicitaria en el metro de San Francisco. Lo publica Anthony Ha en TechCrunch el 3 de mayo. La imagen del anuncio reproduce directamente el dibujo original de Green —el mismo perro, la misma pose, el mismo fuego— pero con el texto modificado para leer «my pipeline is on fire» y la llamada a la acción «Hire Ava the AI BDR». Green lo descubrió por Bluesky, donde otros usuarios le fueron enviando fotos del anuncio. Su respuesta fue directa: «ha sido robado como la IA roba. Por favor, vandalízalo si lo veis».

El meme, el anuncio y la respuesta de Artisan

«This is fine» es uno de los memes más duraderos de la última década. Apareció en el webcomic Gunshow de Green en 2013, en un contexto de oscuro humor sobre la autodestrucción y la negación, y desde entonces ha escapado de su control —como Green mismo reconoce— para convertirse en referencia universal de cualquier situación catastrófica que se acepta con resignación. Green incluso lo convirtió recientemente en un videojuego titulado This Is Fine: Maximum Cope.

Lo que hace el anuncio de Artisan es precisamente lo que más irrita a los artistas en el debate sobre IA y propiedad intelectual: no se trata de una imagen generada por IA que se parece al estilo de Green. Es la obra original, modificada mínimamente para ponerla al servicio de una campaña comercial de una empresa de IA, sin acuerdo ni compensación.

Green confirmó a TechCrunch por correo que no había autorizado el uso, que está «buscando representación legal porque siento que tengo que hacerlo» y que le quitó «el viento de las velas» tener que dedicar tiempo al sistema legal americano «en lugar de dedicárselo a lo que me apasiona, que es dibujar cómics e historias». También añadió: «Estos imbéciles de la IA sin criterio no son intocables y los memes no salen de la nada».

Artisan respondió a TechCrunch de forma escueta: «Tenemos mucho respeto por KC Green y su trabajo, y estamos contactando con él directamente». En un correo de seguimiento añadieron que habían programado una reunión con el artista.


Artisan y la publicidad provocadora que ya tiene historial

Artisan no llega a esta polémica desde la inocencia. La startup, fundada por Jaspar Carmichael-Jack, ya protagonizó antes una controversia con vallas publicitarias en San Francisco que decían «Stop hiring humans» («Deja de contratar humanos»). Carmichael-Jack defendió entonces que el mensaje se refería a «una categoría de trabajo», no a los seres humanos en general, pero el daño de imagen ya estaba hecho. La campaña del «This is fine» sigue la misma lógica de provocación calculada: apropiarse de un símbolo culturalmente cargado para generar visibilidad.

El producto que se anuncia es Ava, el agente de IA para ventas de Artisan, que la empresa posiciona como sustituta de los representantes de desarrollo de negocio humanos (BDR). El mensaje no es sutil: tu pipeline está en llamas, contrata a Ava.

El problema es que la estrategia de visibilidad por provocación tiene un coste cuando el material usado pertenece a alguien que tiene derechos sobre él y la voluntad de hacerlos valer.


El contexto legal: de Pepe the Frog a KC Green

El caso más cercano como precedente es el del dibujante Matt Furie, creador de Pepe the Frog, que demandó al sitio de teorías conspirativas Infowars por usar su personaje en un póster sin autorización. Furie e Infowars llegaron a un acuerdo extrajudicial. El resultado fue una victoria limitada, pero demostró que los creadores de memes pueden litigar con posibilidades reales cuando el uso comercial no autorizado está suficientemente documentado.

El caso de Green tiene diferencias importantes: la obra es menos ambigua que Pepe (Green tiene registro claro de la autoría y la fecha de publicación del webcomic), el uso comercial es evidente (aparece en publicidad pagada en el espacio público), y la ausencia de autorización está confirmada por el propio autor. Lo que falta es saber si un tribunal americano consideraría que el nivel de modificación —cambiar el texto del bocadillo— es suficiente para reclamar uso transformativo bajo fair use. La respuesta jurídica no es obvia, pero la posición moral sí lo es.


Mi valoración

Tras cubrir el debate de IA y derechos de autor durante más de dos años, lo que más me llama la atención de este caso no es que haya ocurrido, sino que haya ocurrido con este nivel de descaro.

Usar el meme más reconocible de internet en una campaña de una empresa de IA que se posiciona como sustituta de trabajadores humanos, sin pagar ni pedir permiso al artista que lo creó, es un resumen perfecto del problema estructural de la industria: la misma tecnología que se nutre del trabajo creativo humano sin compensación lo usa después para vender el argumento de que ese trabajo humano es prescindible.

Lo que más me preocupa es lo que señala Green: el coste real de defender tus derechos no es solo el dinero de los abogados. Es el tiempo que se le roba a un artista independiente para que se defienda en un sistema diseñado para organizaciones con más recursos. La rebelión de artistas con herramientas como Glaze y Nightshade existe precisamente porque la vía legal es costosa e incierta, y la vía técnica de autoprotección es la única accesible para la mayoría.

Lo que sí me parece relevante es que el caso tiene características que lo hacen más litigable que muchos otros: autoría documentada, uso comercial evidente, ausencia de autorización explícita y un precedente como Furie/Infowars. El frente legal que la IA enfrenta en materia de derechos de autor se construye caso a caso, y este tiene todos los ingredientes para ser uno más en la lista.

La pregunta que Artisan va a tener que responder, si llega a juicio, es sencilla: ¿por qué usaron esa imagen si no tenían permiso para hacerlo? La respuesta, cualquiera que sea, va a ser incómoda.


Preguntas frecuentes

¿Quién es KC Green y qué es «This is fine»?

KC Green es un dibujante independiente estadounidense conocido por su webcomic Gunshow. «This is fine» es una viñeta que creó en 2013 donde un perro antropomórfico sonríe sentado ante un incendio, aceptando con resignación la catástrofe. Se ha convertido en uno de los memes más usados de internet para representar situaciones de colapso o negación.

¿Qué ha hecho Artisan exactamente?

Artisan usó la imagen original de Green —sin modificar el dibujo, solo cambiando el texto del bocadillo— en una campaña publicitaria en el metro de San Francisco para promocionar Ava, su agente de IA de ventas. Green confirmó que no dio autorización para ese uso.

¿Puede KC Green ganar una demanda?

Tiene argumentos sólidos: autoría documentada, uso comercial evidente y ausencia de autorización. El principal obstáculo legal sería si Artisan argumentara uso transformativo bajo fair use, aunque el nivel de transformación (cambiar solo el texto del bocadillo) es mínimo. El precedente de Matt Furie con Infowars —donde hubo acuerdo extrajudicial— es el caso más comparable.


La noticia La IA roba el meme más famoso de internet y el autor pide que lo vandalicen fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí