9 de enero de 2020

Apple revelo que escanea fotos en la nube en busca de abuso infantil #CES2020

El Internet es un lugar oscuro, y es por eso que Apple está buscando la manera de hacer que cada vez sea un lugar menos terrible pero ¿a qué costo lo está haciendo? Pues parece que al costo de la privacidad de sus mismos usuarios.

Escaneos en busca de delincuencia

Durante el CES 2020, Jane Horvarth de Appel dijo que se la plataforma de iCloud sirve más muchas cosas más que solamente mantener un registro de tus archivos y evitar que se pierdan, ya que también sirve para encontrar posibles redes de pornografía infantil.

Esto se hace por medio de un software integrado dentro de servicio de la nube, el cual escanea todo el contenido que subes de manera automática para saber si es que hay signos de abuso infantil en las fotografías y videos.

"Apple está dedicado a proteger niños a través de nuestro ecosistema en donde se usan nuestros productos, y continuamos dando soporte a la innovación en este ámbito.

Como parte de ese compromiso, Apple usa tecnología de emparejamiento de imágenes para ayudar a encontrar y reportar el abuso infantil. Similar a cómo funcionan los filtros de Spam en los correos, nuestro sistema usa firmas electrónicas para encontrar abuso infantil."

Apple CES 2020

Eso quiere decir que todas y cada una de las cosas que subas a la nube se va a escanear y se reportará en caso de que se encuentre algo sospechoso. Todo por medio de un software.

No se dio a conocer si hay alguien detrás de ese software que puede decidir si es o no pornografía infantil, pero creo que este anuncio es algo contraproducente en su misión, pues en cuanto los círculos de pedofilia se enteren de esto, simplemente deben dejar de usar servicios y productos de Apple para continuar operando sin problemas.

Creo que era mejor que Apple lo siguiera haciendo en el anonimato y no gritarlo a los mil vientos.




☛ El artículo completo original de Miguel Bravo lo puedes ver aquí.

No hay comentarios.:

Publicar un comentario