El robo de imágenes con derechos de autor para crear otras imágenes, hurto de datos personales y obras debería ser un delito y regularse. Ante la falta de ello, artistas y personas que buscan luchar contra los graves daños que causan los modelos de inteligencia artificial generativa, hoy tienen una solución: envenenar a la IA.
Una nueva herramienta ha llegado contra la falta de atención de las autoridades y la falta de regulación de la IA Generativa que roba tu rostro, tu imagen, tu obra, tus datos, y agregar cambios invisibles a los pixeles de un arte o video antes de subirlo en línea, de modo que si se incluye en un conjunto de entrenamiento de IA, puede causar que el modelo resultante se rompa de manera caótica e impredecible.
La herramienta, Nightshade, pretende ser una forma muy tecnológica de luchar contra las empresas de inteligencia artificial que utilizan el trabajo de los artistas para entrenar sus modelos sin el permiso del creador, o para evitar deepfakes que ponen en riesgo a una persona o socavan su reputación.
Usarlo para “envenenar” estos datos de entrenamiento podría dañar futuras iteraciones de modelos de IA generadores de imágenes, como DALL-E, Midjourney y Stable Diffusion, al inutilizar algunos de sus resultados: los perros se convierten en gatos, los automóviles en vacas, etc. Empresas de inteligencia artificial como OpenAI, Meta, Google y Stability AI se enfrentan a una serie de demandas de artistas que afirman que su material protegido por derechos de autor y su información personal fueron eliminados sin consentimiento ni compensación. Ben Zhao, profesor de la Universidad de Chicago, que dirigió el equipo que creó Nightshade, dice que la esperanza es que ayude a inclinar el equilibrio de poder de las empresas de inteligencia artificial hacia los artistas, al crear un poderoso elemento disuasorio contra la falta de respeto a los derechos de autor e intelectuales de los artistas.
Los modelos de IA generativa son excelentes para establecer conexiones entre palabras, lo que ayuda a que el veneno se propague. Nightshade infecta no sólo la palabra “perro”, sino todos los conceptos similares, como “cachorro”, “husky” y “lobo”.
El ataque de veneno también funciona con imágenes relacionadas tangencialmente. Por ejemplo, si el modelo extrajo una imagen envenenada para el mensaje “arte de fantasía”, los mensajes “dragón” y “un castillo en El Señor de los Anillos” serían manipulados de manera similar para convertirlos en otra cosa. Zhao admite que existe el riesgo de que las personas abusen de la técnica de envenenamiento de datos para usos maliciosos.
Sin embargo, dice que los atacantes necesitarían miles de muestras envenenadas para infligir un daño real a modelos más grandes y potentes, ya que están entrenados con miles de millones de muestras de datos.
¿CÓMO FUNCIONA EL VENENO?
Los generadores de texto a imagen funcionan entrenándose en grandes conjuntos de datos que incluyen millones o miles de millones de imágenes.
Algunos generadores, como los que ofrecen Adobe o Getty, sólo se entrenan con imágenes que el fabricante del generador posee o tiene licencia para usar.
Pero otros generadores han sido entrenados extrayendo indiscriminadamente imágenes en línea, muchas de las cuales pueden estar protegidas por derechos de autor.
Aquí es donde entra en juego la idea del “veneno”. Nightshade funciona alterando sutilmente los pixeles de una imagen de una manera que causa estragos en la visión por computadora pero deja la imagen inalterada a los ojos de un ser humano. Si una organización extrae una de estas imágenes para entrenar un futuro modelo de IA, su conjunto de datos se “envenena”.
Esto puede provocar que el algoritmo aprenda por error a clasificar una imagen como algo que un humano sabría visualmente que no es cierto. Como resultado, el generador puede comenzar a arrojar resultados impredecibles y no deseados.
¿ANTÍDOTO?
Las partes interesadas han propuesto una gama de soluciones tecnológicas y humanas. La más obvia es prestar mayor atención a de dónde provienen los datos de entrada y cómo se pueden utilizar, es decir, transparentar el algoritmo. Hacerlo daría como resultado una recopilación de datos menos indiscriminada.
WhatsApp: SDR La Opinión Recargado
Instagram: Laopinionpr
X (antes Twitter) – @laopinionpr
Facebook – @LaOpiniónPozaRica
Youtube – La Opinión Poza Rica
¿Reporte y denuncia?
Si cuentas con imágenes o video que exhiban maltrato, abuso de autoridad, corrupción o cualquier acción inhumana.
¡Por favor, háznoslo saber!
– WhatsApp: 7822199402 <<< ¡click aquí! – Por e-mail: denuncias@laopinion.net <<< ¡click aquí!

















