Artistas usan datos “envenenados” para combatir IAs invasivas

A medida que las empresas de IA se enfrentan a crecientes problemas legales por utilizar obras de artistas protegidas por derechos de autor, una nueva herramienta llamada Nightshade está dando a los artistas un arma poderosa para proteger su propiedad intelectual.

Según un informe publicado en MIT Technology Review, una novedosa herramienta de envenenamiento de datos llamada Nightshade tiene por objeto empoderar a los artistas en su lucha contra el uso no autorizado de sus trabajos por parte de las empresas de IA. Desarrollada por un equipo dirigido por Ben Zhao, profesor de la Universidad de Chicago, Nightshade permite a los artistas alterar sutilmente los píxeles de sus obras. Estos cambios, aunque invisibles para el ojo humano, pueden tener efectos caóticos e impredecibles en los modelos de IA entrenados con las creaciones extraídas. Dichos modelos de IA, como DALL-E, Midjourney y Stable Diffusion, podrían obtener resultados distorsionados, lo que inutilizaría algunos de ellos. El equipo también desarrolló una herramienta similar, Glaze, diseñada para ocultar los estilos personales de los artistas, impidiendo que las empresas de IA pudieran extraer sus obras. 

Utilizada para envenenar los datos, Nightshade puede manipular los modelos de IA generadores de imágenes para producir resultados disparatados o incorrectos. Por ejemplo, un modelo generativo de IA entrenado con imágenes “envenenadas” de perros podría empezar a producir imágenes en las que los perros aparecieran con varias cabezas, o se convirtieran en gatos. Otro ejemplo se refiere a objetos cotidianos: un modelo expuesto a imágenes alteradas de coches podría empezar a generar imágenes de vacas. No se trata de simples fallos, sino de errores sistemáticamente inducidos. Las pruebas han demostrado que incluso un pequeño porcentaje de imágenes corruptas en un conjunto de datos puede alterar significativamente el rendimiento de un modelo de IA. Estos ejemplos ponen de relieve el potencial de la herramienta para cambiar el equilibrio de poder entre artistas y empresas tecnológicas, convirtiéndola en una estrategia convincente para defender los derechos de propiedad intelectual.

Los creadores tienen previsto integrar Nightshade con Glaze, dando a los artistas la opción de utilizar una u otra herramienta o ambas. Nightshade también será de código abierto, lo que permitirá a una comunidad más amplia adaptarla y reforzarla. Al incorporar más imágenes envenenadas a los conjuntos de entrenamiento de IA, que pueden contener miles de millones de imágenes, la herramienta podría causar estragos en los modelos de aprendizaje automático.

Este esfuerzo llega en un momento en que empresas de IA como OpenAI, Meta y Google se enfrentan a demandas de artistas por uso no autorizado de material protegido por derechos de autor. La técnica de envenenamiento de datos promete ser un poderoso elemento disuasorio de tales prácticas, equilibrando la balanza entre los creadores individuales y los gigantes tecnológicos. Sin embargo, cada vez preocupa más que estas técnicas de envenenamiento de datos puedan utilizarse con fines maliciosos. Los expertos en seguridad advierten de que, a medida que los modelos de IA sean más avanzados y se integren en distintos sistemas, estos métodos podrían volverse más poderosos.

Ilustración: Diario TI vía Midjourney


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022