Desde la llegada y masificación de las plataformas de «arte de IA» hace casi un año, los artistas han visto con impotencia cómo sus creaciones creativas son absorbidas por algunos sistemas de aprendizaje a utomático y utilizadas para crear nuevas imágenes sin crédito ni compensación.
Un equipo de investigadores de la Universidad de Chicago, trabajando con artistas, ha desarrollado una herramienta llamada Glaze, que se espera permita a los artistas proteger su trabajo de forma activa.
¿Cómo funciona Glaze?
Glaze agrega una segunda capa encima de una obra de arte, casi invisible, pero que contiene una obra de arte con una composición similar en un estilo totalmente diferente. Esta capa no está compuesta por ruido o formas aleatorias, sino por una obra de arte distinta. A simple vista, no es posible detectarla, pero cualquier plataforma de aprendizaje automático que intente analizar la obra de arte se confundirá, ya que la capa de Glaze desviará su rastro.
En lugar de permitir que estas plataformas de aprendizaje automático propongan imágenes que se basan en el estilo de un artista humano, como ocurre actualmente, Glaze protege el estilo del artista. Por ejemplo, si un usuario quiere una ilustración al estilo de Karla Ortiz, en lugar de que la plataforma levante su trabajo para imitarlo, el uso de Glaze desvía la atención de la plataforma a otra obra de arte con una composición similar, pero en un estilo diferente.
Protección a corto plazo
Esta herramienta no protege las imágenes ya levantadas por estas plataformas, pero sí les da a los artistas la oportunidad de proteger activamente cualquier trabajo nuevo que publiquen en línea. El equipo de Glaze admite que no es una solución permanente contra el mimetismo de la IA, ya que la IA evoluciona rápidamente y los sistemas como Glaze enfrentan el desafío inherente de estar preparados para el futuro.
La artista Karla Ortiz, quien participó en la creación de Glaze, aseguró que la herramienta puede proteger su estilo de ser imitado sin su consentimiento. Cuando la pintura original de Ortiz fue analizada por una plataforma de aprendizaje automático, la imagen de su obra se borró, lo que demuestra la efectividad de Glaze.
«Stable Diffusion hoy puede aprender a crear imágenes al estilo de Karla después de ver algunas piezas de la obra de arte original de Karla (tomadas del portafolio en línea de Karla). Sin embargo, si Karla usa nuestra herramienta para encubrir su obra de arte, agregando pequeños cambios antes de publicarlos en su carpeta en línea, Stable Diffusion no aprenderá el estilo artístico de Karla. En cambio, la modelo interpretará su arte como un estilo diferente (por ejemplo, el de Vincent van Gogh). Alguien que incitara a Stable Diffusion a generar “obras de arte al estilo de Karla Ortiz” obtendría imágenes al estilo de Van Gogh (o algún híbrido). Esto protege el estilo de Karla de ser reproducido sin su consentimiento», se explica en el portal de esta herramienta, donde también se encuentra disponible su descarga.
Aunque lo que puede hacer Glaze no es una solución permanente, esta una herramienta prometedora para los artistas que desean proteger su trabajo creativo de la imitación de la IA, al proporcionar una medida de protección a corto plazo para cualquier obra de arte nueva que se publique en línea. A medida que la IA continúa evolucionando, será interesante ver cómo se adaptan las herramientas de protección para mantenerse al día con los avances en esta tecnología en constante cambio.
☞ El artículo completo original de Nicolás Verdejo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario