¿Puede Meta usar tus fotos para entrenar su IA?

La última operación de Meta ha despertado cierta preocupación entre los usuarios de Facebook y Instagram. La compañía ha anunciado recientemente que utilizará los datos que estas personas hayan publicado en sus plataformas para formar a sus nuevos inteligencia artificial (IA), a menos que expliquen lo contrario. Un movimiento que ha generado todo tipo de Dudas y preguntas sobre privacidad, la protección de datos o su impacto social. Al mismo tiempo, ha abierto una oportunidad para reflexionar sobre la falta de conciencia que los usuarios tienen sobre el uso de sus datos en general, pero también sobre la Maniobras de poder normalizadas y ocultas.

La polémica se ha intensificado en las redes sociales, donde usuarios y expertos han expresado sus preocupaciones. Muchos se preguntan en qué medida sus datos ya han sido utilizados sin su consentimiento y qué implicaciones tendrá esto en el futuro. Meta ha manifestado que buscan cumplir con la normativa de privacidad y protección de datos, pero persiste la desconfianza.

Los expertos explican que las empresas de inteligencia artificial generativa, que producen texto e imágenes, se enfrentan a un problema clave: necesitan enormes cantidades de datos para habituar sus modelos. “Las plataformas en general tienen este problema. Necesitan billones de datos para entrenar su inteligencia artificial”, explica. Borja Adsuara, abogado experto en derecho digital. Esta necesidad de datos incluye no sólo información generada por el usuario, sino también obras protegidas por derechos de autor.

Borja Adsuara cree que Meta debería pedir “consentimiento específico” si quiere utilizar los datos de los usuarios para entrenar su IA

También Joaquín Peña, catedrático de la Universidad de Sevilla y fundador del Instituto Humanista de Digitalización, destaca que la situación actual no es exclusiva del Meta. “Todas las empresas de Inteligencia Artificial están entrenando algoritmos con información de Internet y con un nivel de control relativamente bajo“, comenta. Esto implica que se están explotando los datos de la plataforma”sin discernir escrupulosamente qué información se utiliza“, lo que ha dado lugar a conflictos legales como el de OpenAI con Los New York Times.

En este sentido, Borja Adsuara advierte de que muchos usuarios no son plenamente conscientes de hasta qué punto se estaban utilizando sus datos antes de que Meta diera este último giro. “Cuando te registras en una red social, autorizas a la red social a utilizar una licencia para todo el contenido que subes”, aclara. Esta licencia permite a las plataformas modificar y explotar el contenido, cláusula que el profesor considera abusivo, pero existe. La mayoría de los ciudadanos, sin embargo, tienen poco conocimiento sobre su alcance.

En su opinión, el problema no gira tanto en si a partir de ahora la foto de su pequeño aparecerá en el futuro en los anuncios de pañales -algo que ya anticipa “no sucederá” porque las IA generativas, explica, “producen contenidos inspirados o basados ​​en otros, pero no replicarlos tal cual”−. Pero la cuestión es si basta con que Meta dé a los usuarios la posibilidad de oponerse a que sus datos sean utilizados con ese fin o Se requiere consentimiento específico.

“Si vas a tratar datos personales con una finalidad concreta, que es dirigir publicidad personalizada, como es el caso de galletas, un consentimiento genérico no es válido. Tú como usuario has podido aceptar las condiciones de uso de una red social, lo cual ya implica bastantes cosas; Pero si la plataforma quiere algo más, como enviarle publicidad personalizada o entrenar su inteligencia artificial en función de sus datos, Tendrás que solicitar un consentimiento específico para ello.. No se debe dar por sentado que una facultad implica la otra”, argumenta Adsuara. Este problema se ve agravado por la falta de claridad en la normativa actual. “La cosa no está clara porque ni la normativa de inteligencia artificial lo resuelve ni la Ley de Propiedad Intelectual”, afirma.

Peña valora algo parecido: “Si nos vamos al reglamento general de protección de datos, el protocolo debería ser que acepto fehacientemente que mis datos se utilizan para entrenar una IA. El hecho de que Meta haya anunciado que lo va a utilizar sin más, va un paso más allá”.

Impacto en la propiedad intelectual

A falta de una regulación más exhaustiva y rigurosa sobre, por ejemplo, el uso de la información protegida por derechos de autor, Borja Adsuara afirma que la forma de proceder, tras varios litigios, está siendo la firma de acuerdos. De tal manera que las empresas que quieran utilizar esos datos Deben pedir permiso y pagar a los dueños de las obras con el que entrenan a la IA. En el caso de Meta, no está muy claro cómo actuará. Aunque su nueva herramienta de IA, como detalla, no debería reproducir los trabajos originales, su entrenamiento implicará el uso de estas obras sin compensación directa a los creadores.

En este contexto, Esther Paniaguaun analista especializado en ciencia y tecnología, advierte que “ya sabemos que se han desarrollado otros sistemas de IA generativa denunciado por plagiar contenido y violar los derechos de autor por utilizar obras protegidas“, lo que también genera “un problema de competencia desleal y posible impacto en las condiciones laborales de los creadores”. Queda por ver “hasta qué punto Meta va a incurrir en violaciones de propiedad intelectual del contenido publicado en sus plataformas”, afirma.

Joaquín Peña: “Hay que pensar que las IA pueden tener muchas ventajas, nos pueden ayudar; pero también hay que hacer balance de los inconvenientes”

Por su parte, Joaquín Peña destaca la necesidad de reevaluar las leyes de derechos de autor y privacidad. “Tal vez Son reglas que ya ni siquiera tienen sentido. Es como tomar a una persona de la Edad Media y dejarla aquí hoy. “Es como si intentaras aplicar estándares obsoletos”, sugiere.

Para Peña, en cambio, el tema de la privacidad es una cuestión cultural. “En China, por ejemplo, es muy normal tener videovigilancia en las calles, está asociado a la seguridad y al confort. Aquí en Occidente es diferente. Debemos pensar que la IA puede tener muchas ventajas, nos pueden ayudar; pero también los hay. Hay que hacer balance de los inconvenientes porque al final quienes tienen esta información son las empresas. les da una capacidad sin precedentes para controlar el mundosí”, explica.

Desinformación y manipulación

Sin embargo, el impacto potencial de entrenar la IA con datos de usuarios va más allá de la privacidad y la propiedad intelectual. Existe el riesgo de que estas tecnologías Se utilizan para crear contenidos que influyen en la opinión pública. y comportamientos de los usuarios, como ya ocurrió con Cambridge Analytica. El escándalo puso de relieve la vulnerabilidad de los datos personales en la era digital y cómo la información puede explotarse para interferir con los procesos democráticos.

En este sentido, aunque Borja Adsuara cree que las grandes plataformas hipervigiladas “no correrán el riesgo de hacer un mal uso de las obras y los datos de sus usuarios”, reconoce que “siempre existe el riesgo de que aplicaciones de terceros -como FaceApp- utilicen estos datos. irresponsablemente”. Ya han surgido algunos problemas a este respecto relacionados con la creación de contenidos pornográficos a través de deepfakes.

El perfeccionamiento del “capitalismo de vigilancia”

Desde un punto de vista aún más crítico, Marta Peiranoperiodista y experto en tecnología, añade que el impacto de la decisión de la empresa de Mark Zuckerberg es doble: “Primero, porque demuestra que el modelo de extracción de datos sin supervisión directa de las autoridades funciona. En Europa todavía funciona. No han pagado ninguna de las multas que les impusieron por infracciones. de los derechos de protección de datos”.

Marta Peirano: “El modelo que están formando habrá digerido las rutinas, aspiraciones, inquietudes y miedos de miles de millones de usuarios”

Además, Peirano advierte sobre las implicaciones a largo plazo: “El modelo que están entrenando habrá digerido las rutinas, aspiraciones, preocupaciones y miedos de miles de millones de usuarios. Esa máquina de reconocimiento de patrones es al servicio de los gigantes de la industria de la manipulación“.

Para el especialista, estas empresas tecnológicas, que en realidad son “empresas publicitarias”, han avanzado en su capacidad de influir en los usuarios. “Su forma de influir hasta ahora ha sido curando nuestra visión del mundo, creando una burbuja de noticias, usuarios y videos diseñada para promover sus intereses publicitarios. Ahora, gracias a los asistentes virtuales y los modelos de IA, nos van a hablar literalmente al oído. refinamiento del modelo de extracción de datos para manipulación masiva Llamamos capitalismo de vigilanciacon un cambio de interfaz”, detalla.

Aunque es posible que, como consecuencia, algunos usuarios, como señala Esther Paniagua,, decide compartir menos contenido y dar lugar a un nuevo efecto #EliminarFacebookel autor sigue siendo “escéptico de que tenga un gran impacto”.

“Puede ocurrir algo similar a lo que ocurre con la obligación de pago para evitar la recogida de datos personales para publicidad personalizada: Si bien la mayoría de los usuarios no quieren ser rastreados, cuando se les pide que paguen para evitarlo, no lo hacen. Según datos recogidos por Noyb, sólo entre el 3% y el 10% de los usuarios quieren anuncios personalizados, pero el 99,9% los consiente si la única alternativa es pagar, aunque sea una cantidad inferior a dos euros”, afirma Paniagua.

 
For Latest Updates Follow us on Google News