24 de octubre de 2023

Artistas usan datos 'envenenados' para combatir IAs invasivas

Según un informe publicado en MIT Technology Review, una novedosa herramienta de envenenamiento de datos llamada Nightshade tiene por objeto empoderar a los artistas en su lucha contra el uso no autorizado de sus trabajos por parte de las empresas de IA. Desarrollada por un equipo dirigido por Ben Zhao, profesor de la Universidad de Chicago, Nightshade permite a los artistas alterar sutilmente los píxeles de sus obras. Estos cambios, aunque invisibles para el ojo humano, pueden tener efectos caóticos e impredecibles en los modelos de IA entrenados con las creaciones extraídas. Dichos modelos de IA, como DALL-E, Midjourney y Stable Diffusion, podrían obtener resultados distorsionados, lo que inutilizaría algunos de ellos. El equipo también desarrolló una herramienta similar, Gl aze, diseñada para ocultar los estilos personales de los artistas, impidiendo que las empresas de IA pudieran extraer sus obras. 

Utilizada para envenenar los datos, Nightshade puede manipular los modelos de IA generadores de imágenes para producir resultados disparatados o incorrectos. Por ejemplo, un modelo generativo de IA entrenado con imágenes “envenenadas” de perros podría empezar a producir imágenes en las que los perros aparecieran con varias cabezas, o se convirtieran en gatos. Otro ejemplo se refiere a objetos cotidianos: un modelo expuesto a imágenes alteradas de coches podría empezar a generar imágenes de vacas. No se trata de simples fallos, sino de errores sistemáticamente inducidos. Las pruebas han demostrado que incluso un pequeño porcentaje de imágenes corruptas en un conjunto de datos puede alterar significativamente el rendimiento de un modelo de IA. Estos ejemplos ponen de relieve el potencial de la herramienta para camb iar el equilibrio de poder entre artistas y empresas tecnológicas, convirtiéndola en una estrategia convincente para defender los derechos de propiedad intelectual.

Los creadores tienen previsto integrar Nightshade con Glaze, dando a los artistas la opción de utilizar una u otra herramienta o ambas. Nightshade también será de código abierto, lo que permitirá a una comunidad más amplia adaptarla y reforzarla. Al incorporar más imágenes envenenadas a los conjuntos de entrenamiento de IA, que pueden contener miles de millones de imágenes, la herramienta podría causar estragos en los modelos de aprendizaje automático.

Este esfuerzo llega en un momento en que empresas de IA como OpenAI, Meta y Google se enfrentan a demandas de artistas por uso no autorizado de material protegido por derechos de autor. La técnica de envenenamiento de datos promete ser un poderoso elemento disuasorio de tales prácticas, equilibrando la balanza entre los creadores individuales y los gigantes tecnológicos. Sin embargo, cada vez preocupa más que estas técnicas de envenenamiento de datos puedan utilizarse con fines maliciosos. Los expertos en seguridad advierten de que, a medida que los modelos de IA sean más avanzados y se integren en distintos sistemas, estos métodos podrían volverse más poderosos.

Ilustración: Diario TI vía Midjourney



☞ El artículo completo original de Redacción lo puedes ver aquí

No hay comentarios.:

Publicar un comentario