
El término IA slop se está usando para describir un tipo de contenido generado por IA que parece hecho a toda prisa: imágenes y vídeos poco convincentes, repetitivos, diseñados para enganchar clics y reacciones sin aportar gran cosa. Es como la comida ultraprocesada del feed: no siempre sabe bien, pero está formulada para que sigas picando. Un ejemplo citado por la BBC muestra una escena imposible, niños con rasgos incoherentes y detalles anatómicos absurdos, colocados en una situación melodramática que busca likes. Lo sorprendente no es solo que exista, sino que llegue a cifras masivas de interacción sin que mucha gente lo cuestione.
Durante un tiempo, detectar estas piezas era como ver una chapa mal pintada en una puerta de madera: las costuras cantaban. Manos raras, texto ilegible, sombras imposibles. El problema es que la tecnología mejora y la familiaridad también juega en contra. Cuando te acostumbras a que tu timeline sea un bazar, dejas de inspeccionar cada producto antes de comprarlo.
Un estudiante, un hartazgo y una cuenta que encendió la conversación
La historia de Théodore, un estudiante de París que abrió una cuenta en X llamada “Insane AI Slop”, funciona como síntoma de algo más amplio. Según relata la BBC, él empezó a recopilar y ridiculizar este contenido tras toparse con una imagen tan grotesca como viral. Lo que comenzó como una reacción de incredulidad se convirtió en un buzón abarrotado de “hallazgos” enviados por otras personas. Esa dinámica es importante: el IA slop no solo se produce en cadena, también se detecta en cadena, se comenta en cadena y se difunde en cadena.
Théodore observó patrones que se repiten porque “funcionan” en términos de clics: religión, épica militar, historias lacrimógenas con niños, proezas improbables en contextos de pobreza. Es el mismo mecanismo que hace que en una sobremesa familiar se repitan las anécdotas que siempre arrancan risas. Las plataformas premian lo que retiene atención, no lo que es cierto.
La “tercera fase” de las plataformas: más creación, más mezcla, más volumen
El giro no es casual. En declaraciones a inversores recogidas por la BBC, el CEO de Meta, Mark Zuckerberg, describió una “tercera fase” de las redes sociales centrada en la IA, tras una primera etapa dominada por contenido de amigos y una segunda impulsada por creadores. La idea es clara: si la IA hace más fácil crear y remezclar, habrá una avalancha de formatos y publicaciones.
Ese planteamiento viene acompañado de herramientas. Las plataformas no solo permiten el contenido generado por IA, también lo facilitan con filtros, generadores y funciones integradas. En paralelo, el CEO de YouTube, Neal Mohan, escribió en un texto de perspectiva para 2026 que más de un millón de canales habían usado herramientas de IA de la plataforma en un solo mes, un dato que ilustra el tamaño del fenómeno. Mohan reconoce preocupaciones por “contenido de baja calidad”, prometiendo mejoras para detectar y reducir publicaciones repetitivas.
Cuando pones una impresora industrial en mitad de una plaza, la plaza se llena de papel. Parte será útil, parte será basura, parte será propaganda, parte será arte. Lo complicado es decidir quién recoge qué y con qué criterio.
El combustible económico: cuando el engagement paga la factura
Detrás del IA slop hay una lógica de incentivos fácil de entender. Si una pieza consigue reacciones, el sistema la impulsa. Si el creador monetiza por visualizaciones, el estímulo es producir más, más rápido y con el menor coste posible. Un estudio citado por la BBC, realizado por la empresa Kapwing, estimó que una porción relevante de lo que ve una cuenta nueva en YouTube puede encajar en la etiqueta de “baja calidad generada con IA”, con especial presencia en el formato corto.
En ese terreno, la repetición es una estrategia: el mismo tipo de historia con cambios mínimos, el mismo “gancho” emocional, el mismo ritmo. Es como poner una máquina de hacer rosquillas en una feria: no necesitas inventar un postre nuevo cada día si el olor ya atrae a la gente.
La reacción: comentarios furiosos, burlas y un efecto secundario incómodo
La BBC describe una reacción creciente visible en comentarios que denuncian lo artificial, lo engañoso o lo cansino del contenido. En algunos casos, la indignación obtiene más likes que la publicación original. Suena a victoria ciudadana, pero tiene truco: para los algoritmos, una discusión intensa sigue siendo señal de “interés”. La plataforma no distingue entre aplauso y abucheo si ambos mantienen a la audiencia mirando.
Es una paradoja parecida a discutir en voz alta en un restaurante para quejarte del ruido: la queja aumenta el ruido. El enfado se convierte en parte del motor que amplifica el propio fenómeno.
El coste mental: verificar cansa y la paciencia no es infinita
Aquí aparece una preocupación más profunda. Emily Thorson, profesora asociada en la Universidad de Syracuse especializada en desinformación, explica en la BBC que el impacto depende del uso que cada persona le dé a la plataforma. Si buscas entretenimiento, quizá te baste con que “divierta”. Si buscas informarte o conectar con una comunidad, el contenido generado por IA problemático pesa más.
El investigador Alessandro Galeazzi, de la Universidad de Padova, plantea otro ángulo: comprobar si algo es real requiere esfuerzo, y ese esfuerzo sostenido puede erosionarse con el tiempo. Si tu feed se llena de piezas dudosas, el cerebro aprende a rendirse. Es como vivir en una calle con alarmas que suenan cada noche: al principio te asomas a la ventana, al mes ya ni te mueves. Galeazzi menciona el riesgo de “brain rot”, una manera de nombrar la degradación de la atención cuando consumimos mucho contenido rápido, trivial y repetitivo.
Cuando deja de ser “solo raro”: riesgos de desinformación y abuso
El IA slop puede ser simplemente absurdo, como animales con zapatos o escenas imposibles diseñadas para ser compartidas. El problema es que el mismo ecosistema también sirve para contenidos con consecuencias serias. La BBC menciona el caso de Grok, el chatbot de xAI integrado con X, y cómo su uso para “desnudar” digitalmente a mujeres y menores llevó a cambios de normas. Cita también la circulación de vídeos falsos en contextos políticos y de conflicto, capaces de moldear percepciones públicas.
Cuando muchas personas usan redes como principal fuente de noticias, una avalancha de material sintético puede actuar como niebla. No hace falta convencerte de una mentira concreta; basta con que dudes de todo. Y esa duda permanente es un terreno fértil para la manipulación.
Moderación en retroceso y una idea que gana fuerza: probar lo real en lugar de perseguir lo falso
Una pieza clave del rompecabezas es la moderación. Según la BBC, varias plataformas han recortado equipos y han desplazado parte del control hacia sistemas comunitarios, con usuarios etiquetando lo engañoso. Esa estrategia tropieza con un límite: si el volumen crece y la calidad media baja, la comunidad se agota.
El CEO de OpenOrigins, Manny Ahmed, plantea en la BBC una propuesta que suena cada vez más razonable: dejar de centrarnos solo en detectar lo falso y construir infraestructura para demostrar el origen de lo real. En términos cotidianos, sería como pasar de perseguir billetes falsos a exigir una marca de agua verificable en los billetes auténticos. Si un vídeo pudiera acreditar su procedencia, cuándo se grabó, con qué dispositivo, si se editó y cómo, el debate no dependería tanto del “ojo” del espectador.
Eso no eliminaría el IA slop, pero podría separar con más claridad el contenido documental del contenido sintético, algo crucial cuando la línea entre entretenimiento y noticia se difumina.
¿Habrá redes “sin slop” o ya es parte del paisaje digital?
La idea de una plataforma alternativa “limpia” suena tentadora. La BBC recuerda el caso de BeReal, que empujó la autenticidad como propuesta y obligó a gigantes a tomar nota. El desafío es que la detección automática se vuelve más difícil a medida que la IA mejora, y definir “slop” tiene un componente subjetivo. Lo que para una persona es basura, para otra es un gag.
Quizá el futuro no sea un internet libre de IA slop, sino un internet con mejores señales: etiquetados fiables, herramientas para filtrar, sistemas de procedencia, incentivos económicos menos dependientes de la indignación, y alfabetización visual para que no nos vendan gato por liebre. Théodore, según la BBC, parece resignado: no está en contra de la IA, está en contra de la contaminación del espacio social por contenido hecho para rascar atención.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
