Hoy empieza en Los Ángeles la selección del jurado que juzgará a Meta, TikTok y YouTube por adicción infantil a las redes sociales. Es la primera vez que estos gigantes tecnológicos deben defender su modelo de negocio ante un tribunal por daños a menores.
Por qué es importante. No se trata de un caso más sobre contenido inapropiado o moderación deficiente. Esta demanda ataca directamente el diseño de las plataformas: scroll infinito, reproducción automática, notificaciones push y algoritmos que maximizan el tiempo de pantalla.
Si los demandantes ganan, se establece un precedente que puede ser devastador para toda la industria.
Los hechos. La demandante es una joven de 19 años identificada como K.G.M. Ella alega haber desarrollado adicción a las redes desde la adolescencia. Sostiene que el diseño de estas aplicaciones fue lo que alimentó su depresión, ansiedad, dismorfia corporal y pensamientos suicidas. Meta, TikTok y YouTube han negado estas acusaciones y argumentan que han invertido en herramientas de seguridad.
Durante las seis semanas del juicio declararán Mark Zuckerberg, CEO de Meta, y Adam Mosseri, responsable de Instagram. Snap, inicialmente también acusada, llegó a un acuerdo extrajudicial la semana pasada por una cantidad no revelada públicamente.
Entre líneas. El argumento clave de los demandantes esquiva la protección tradicional de las tecnológicas: la famosa Sección 230, que las exime de responsabilidad por el contenido que suben los usuarios. Pero aquí no se cuestiona qué se publica, sino cómo se diseñó la experiencia para enganchar a los menores.
La demanda la compara abiertamente con las máquinas tragaperras y la industria tabacalera: "Los acusados incrustaron deliberadamente en sus productos una serie de características diseñadas para maximizar el engagement juvenil y aumentar los ingresos publicitarios".
La amenaza. Esta es solo la punta del iceberg. Hay más de 3.000 demandas adicionales en California y 2.000 casos federales pendientes contra estas mismas empresas. Varios irán a juicio este año. Los paralelismos con los juicios contra las tabacaleras en los años 90 son claros y aquello acabó en un acuerdo de 206.000 millones de dólares repartidos en 25 años.
Un veredicto favorable a los demandantes no solo les costaría miles de millones sino que les obligaría a rediseñar sus productos prácticamente desde cero, eliminando las mecánicas adictivas que sostienen sus espectaculares cifras de uso y por tanto sus modelos publicitarios.
El contexto. La presión regulatoria global ha aumentado mucho en los últimos años:
- Australia prohibió las redes sociales para menores de 16 años en diciembre.
- Francia está estudiando hacer lo mismo con los menores de 15.
- Otros países como Reino Unido y Egipto de momento evalúan medidas similares.
Según una encuesta reciente del Wall Street Journal, el 71% de los estadounidenses apoyaría prohibir la mayoría de redes sociales a menores de 16 años.
Sí, pero. Las tecnológicas no se quedan de brazos cruzados:
- Meta, TikTok y YouTube han lanzado una ofensiva de relaciones públicas organizando talleres para padres en colegios y promoviendo los controles parentales.
- Meta ha contratado a los mismos abogados que defendieron a McKesson en el escándalo de los opioides.
- Y TikTok ha fichado a quienes representaron a Activision Blizzard en demandas anteriores sobre la adicción a los videojuegos.
En juego. Si K.G.M. gana, la Sección 230 va a dejar de ser el escudo impenetrable que ha sido hasta ahora, ya que se cuestiona cómo están hechas las aplicaciones, no el contenido que se sube a ellas. Es de esperar que este caso acabe en el Tribunal Supremo, sea cual sea el veredicto.
Las próximas seis semanas van a determinar si el scroll infinito y otras prácticas habituales de estas redes tienen los días contados, o si hay engagement para rato.
Imagen destacada | Solen Feyissa
-
La noticia Meta, Google y TikTok han condenado a toda una generación al "doomscrolling". Y ahora van a ser juzgadas por ello fue publicada originalmente en Xataka por Javier Lacort .
☞ El artículo completo original de Javier Lacort lo puedes ver aquí