30 de mayo de 2025

Facebook relaja su moderación de contenido y los resultados ya se hacen notar

Menos moderación, más contenido problemático

El nuevo enfoque de Meta consiste en dejar de aplicar una moderación proactiva en la mayoría de sus políticas, concentrando los esfuerzos solo en casos graves como explotación infantil o contenido terrorista. Este cambio ha llevado a una drástica disminución del contenido eliminado. Por ejemplo, el número de publicaciones retiradas por contenido de odio se redujo a 3,4 millones, el nivel más bajo desde 2018. También cayeron a la mitad las eliminaciones de contenido considerado spam: de 730 millones a solo 366 millones. En el caso de cuentas falsas, la cifra descendió de 1.400 millones a 1.000 millones.

Pero no todo son buenas noticias. Aunque Meta señala que el contenido que infringe sus reglas se ha mantenido “prácticamente sin cambios” en la mayoría de las categorías, hay dos excepciones claras: el contenido violento y gráfico y el acoso o bullying.

Entre finales de 2024 y el primer trimestre de 2025, el contenido violento subió de un 0,06%-0,07% a un 0,09% del total. Puede parecer una variación menor, pero en una plataforma que gestiona miles de millones de publicaciones diarias, ese 0,02% representa una gran cantidad de publicaciones problemáticas adicionales. En paralelo, el acoso también aumentó, pasando de un 0,06%-0,07% a un 0,07%-0,08%.

¿Por qué aumenta el contenido violento?

Meta argumenta que este incremento se debe a dos factores: por un lado, más usuarios están compartiendo este tipo de publicaciones; por otro, la empresa está siendo más prudente al aplicar sanciones, con el fin de evitar errores de moderación. En otras palabras, al querer equivocarse menos, también se está dejando pasar más contenido que antes se habría eliminado.

Esto ha provocado un efecto colateral evidente: los usuarios se están topando con más publicaciones que promueven violencia o comportamientos hostiles. Esta situación es especialmente preocupante en contextos donde la interacción diaria ya es tensa o conflictiva, como foros políticos o comunidades vulnerables.

El dilema de los errores vs. la seguridad

Uno de los principales argumentos de Zuckerberg para modificar la política de moderación fue reducir la cantidad de errores en la eliminación de contenido. Según Meta, lo ha conseguido: los errores de moderación en Estados Unidos habrían disminuido un 50% entre el cuarto trimestre de 2024 y el primero de 2025.

Sin embargo, Meta no ha detallado cómo mide estos errores ni cómo verifica que se trate efectivamente de contenido mal clasificado. La compañía promete incluir métricas más específicas en informes futuros, pero por ahora, la falta de transparencia genera dudas sobre la validez de ese 50% de mejora.

Un enfoque especial para adolescentes

A pesar de su enfoque más laxo, Meta ha decidido mantener una moderación más estricta para los usuarios adolescentes. La empresa sigue aplicando medidas proactivas para ocultar contenido perjudicial, como publicaciones de bullying. Además, ha lanzado cuentas específicas para adolescentes, lo que le permite aplicar filtros personalizados para este grupo demográfico.

Es un reconocimiento implícito de que no todos los usuarios pueden exponerse al mismo tipo de contenido, y que los más jóvenes requieren una protección diferenciada. En este sentido, Meta intenta equilibrar la libertad de expresión con la seguridad digital, al menos para los sectores más vulnerables.

Inteligencia artificial al servicio de la moderación

Meta también ha comenzado a integrar modelos de lenguaje grandes (LLMs) en sus sistemas de moderación. Según la empresa, estos modelos ya superan el rendimiento humano en algunas áreas específicas de política, permitiendo detectar y clasificar contenido con mayor precisión.

Además, los LLMs se están utilizando para reducir la carga de trabajo de los moderadores humanos, eliminando automáticamente contenido de las colas de revisión cuando el sistema tiene alta confianza de que no infringe las normas. Aunque suena prometedor, queda por ver cuán efectivos son estos sistemas a gran escala y qué tipo de sesgos podrían arrastrar.

Fin de las alianzas de verificación y apuesta por la comunidad

Otro de los cambios más significativos fue el fin de los acuerdos con organizaciones externas de verificación de datos en Estados Unidos. En su lugar, Meta ha lanzado su propia versión de Community Notes, una herramienta inspirada en la que ya usa Twitter (ahora X), que permite a los usuarios añadir anotaciones aclaratorias en publicaciones potencialmente engañosas.

Estas notas ya se han empezado a implementar en Facebook, Instagram, Threads e incluso Reels. A pesar de esto, Meta no ha ofrecido datos sobre cuántas publicaciones han sido etiquetadas ni qué tan efectivas son estas notas para reducir la desinformación. Se espera más información en próximos informes.

¿Hacia dónde se dirige Facebook?

La red social se encuentra en una etapa de redefinición. Busca ser más tolerante con el contenido polémico para reducir errores, mejorar la experiencia del usuario y optimizar recursos. Pero al hacerlo, corre el riesgo de convertir su plataforma en un entorno más hostil y menos seguro.

Este equilibrio entre libertad y seguridad no es fácil. La apuesta por tecnologías como los LLMs y por herramientas comunitarias de verificación puede ayudar, pero también requiere transparencia y evaluación constante. Mientras tanto, los usuarios deben estar más atentos que nunca a lo que consumen y comparten en la plataforma.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario