1 de diciembre de 2016

Facebook usa Inteligencia Artificial para detectar contenido ofensivo en las transmisiones en directo

facebook-liveSegún comenta el equipo de Reuters, Facebook está trabajando en una nueva forma de detectar automáticamente contenido ofensivo.

La idea es aplicar un sistema basado en inteligencia artificial en las transmisiones en directo, para detectar escenas de desnudez, violencia o cualquier clase de contenido inapropiado, según las policitas de Facebook.

Desde hace tiempo, Facebook está en la mira por su sistema poco eficaz para detectar noticias falsas o sus equivocaciones al momento de censurar publicaciones. Por ejemplo, unos meses atrás, Facebook fue criticado por borrar una publicación donde se mostraba una fotografía reconocida internacionalmente que aludía a la guerra de Vietnam.

La fotografía tomada por el fotógrafo Nick Ut, técnicamente violaba la política de Facebook sobre contenidos con escenas de desnudez, pero obviamente el contexto estaba muy alejado de tener un sentido pornográfico.

Ahora con esta nueva dinámica, que aún está en prueba, el sistema sería el responsable de detectar el contenido inapropiado y marcar las secuencias correspondientes,  dejando de lado la revisión de los empleados de Facebook.

Según el equipo de Facebook, aún queda mucho trabajo por realizar para potenciar el sistema, ya que tiene que ser rápido, por la dinámica de las transmisiones en directo, y entender el funcionamiento de las políticas de la empresa.

Texto escrito en wwwhatsnew.com

Sigue las noticias por http://twitter.com/wwwhatsnew, http://bit.ly/1mEVnny o Google Plus.



☛ El artículo completo original de Miriam Schuager lo puedes ver aquí

No hay comentarios.:

Publicar un comentario