La Inteligencia Artificial puede ser envenenada para proteger los derechos de autor – .

La Inteligencia Artificial puede ser envenenada para proteger los derechos de autor – .
La Inteligencia Artificial puede ser envenenada para proteger los derechos de autor – .

La Inteligencia Artificial puede ser envenenada para proteger los derechos de autorShawn Shan et al.

Una herramienta llamada Nightshade cambia las imágenes digitales de manera casi imperceptible para el ojo humano, pero se ven totalmente diferentes a los modelos de IA, una forma controvertida de proteger las obras de arte de posibles infracciones de derechos de autor.

Relacionado

En un mundo donde la inteligencia artificial (IA) se ha convertido en una herramienta capaz de generar imágenes con tan solo unas pocas palabras clave, surge una nueva preocupación: la infracción de derechos de autor.

Artistas e informáticos han comenzado a luchar contra esta tendencia utilizando una técnica conocida como “intoxicación de datos” para proteger sus obras de ser replicadas sin permiso.

Creando alucinaciones

hierba mora es una herramienta desarrollada por investigadores de la Universidad de Chicago que modifica sutilmente imágenes de maneras casi imperceptibles para el ojo humano, pero que dan como resultado vistas drásticamente diferentes para las plataformas de IA que las procesan.

Este método de “envenenamiento” hace que los modelos de IA “alucinen” a los gatos, por ejemplo, cuando en realidad están viendo perros. Esta técnica se basa en la diferencia fundamental entre cómo los humanos y las máquinas “ven” las imágenes.

Mientras que los humanos interpretan una imagen como un todo, las IA la procesan como una serie de números, con valores de píxeles que van de cero a 255.

Síntomas de envenenamiento de datos

Nightshade altera miles de píxeles, una cantidad pequeña en comparación con imágenes que contienen millones de píxeles, pero suficiente para engañar a una IA y hacer que vea “algo que es completamente diferente”, explica. Shawn Shan de la UoC, en un artículo publicado en arXiv.

Los síntomas del envenenamiento de datos pueden ser variados y sorprendentes. Por ejemplo, una IA entrenada con imágenes “envenenadas” podría confundir un globo con un huevo o una sandía.

Los modelos de IA también podrían reintroducir errores previamente superados, como problemas en la representación de las manos, o crear características ilógicas, como perros con seis patas o sofás deformes. Cuantas más imágenes “envenenadas” contenga el conjunto de datos de entrenamiento, mayor será la perturbación.

Impacto en la IA generativa

El daño causado por imágenes “envenenadas” no se limita a la imagen en cuestión; También afecta a los términos de búsqueda relacionados, advierten los autores de este trabajo.

Por ejemplo, si se utiliza una imagen “envenenada” de un Ferrari en los datos de entrenamiento, los resultados de la IA para otras marcas de automóviles y términos relacionados como “vehículo” o “automóvil” también pueden verse afectados.

El envenenamiento de datos plantea un dilema ético y legal en la intersección de la tecnología y los derechos de autor.

Lado oscuro

Si bien herramientas como Nightshade buscan empoderar a los artistas y hacer que las grandes empresas de tecnología sean más respetuosas con los derechos de autor, también existe el riesgo de que los usuarios abusen de estas herramientas para interrumpir intencionalmente los servicios de inteligencia artificial.

La búsqueda de soluciones tecnológicas y humanas es crucial para garantizar que la creatividad y la propiedad intelectual coexistan armoniosamente con la innovación tecnológica.

En este sentido, los creadores de Nightshade consideran que esta tecnología es un primer paso en esa dirección y animan a los formadores de modelos y propietarios de contenidos a negociar un camino hacia la adquisición de datos con licencia mediante el entrenamiento adecuado de futuros modelos de IA.

Al mismo tiempo, advierten que su tecnología revela las limitaciones fundamentales de los modelos de IA generativa y advierten que están expuestos a ataques aún más poderosos.

Referencia

Ataques de envenenamiento específicos en modelos generativos de texto a imagen. Shawn Shan et al. arXiv:2310.13828v2 [cs.CR] 16 de febrero de 2024.

 
For Latest Updates Follow us on Google News
 

NEXT 5 juegos tipo Stardew Valley para móviles Android