Google, Meta y Microsoft unen fuerzas para combatir imágenes de abuso sexual infantil creadas con IA – .

Google, Meta y Microsoft unen fuerzas para combatir imágenes de abuso sexual infantil creadas con IA – .
Google, Meta y Microsoft unen fuerzas para combatir imágenes de abuso sexual infantil creadas con IA – .

Las empresas que forman parte del proyecto tendrán que someter sus IA a pruebas robustas para comprobar que no pueden generar imágenes dañinas. (Imagen ilustrativa Infobae)

Empresas líderes como Google, Meta, Microsoft, OpenAI y Amazon han unido fuerzas en un proyecto pionero que pretende establecer regulaciones estrictas para evitar que la IA genere imágenes de abuso sexual infantil.

Este proyecto, impulsado por Thorn y All Tech is Human, busca enfocar el poder transformador de la IA hacia un progreso que proteja los derechos y la integridad de los menores.

La iniciativa destaca la importancia de utilizar bases de datos limpias para entrenar modelos de simulación. AI. Las empresas se han comprometido a garantizar que los datos utilizados para alimentar sus sistemas no contengan imágenes que exploten a menores.

Además, Las empresas de tecnología necesitarán implementar mecanismos de control sólidos y pruebas rigurosas para demostrar que sus modelos de IA generativa no tienen la capacidad de crear imagenes de abuso sexual infantil.

Google junto con otras empresas tecnológicas se comprometieron a utilizar bases de datos limpias. REUTERS/Steve Marcus

Este proyecto también refuerza la idea de que la innovación tecnológica debe ir de la mano de una fuerte ética de desarrollo. En su afán por explorar los límites de lo posible, la IA no debe traspasar los límites de lo que es moralmente aceptable.

La magnitud del problema que estas directrices buscan mitigar es alarmante. Solo en Estados Unidos, en 2023 se denunciaron más de 104 millones de archivos sospechosos de contener material de abuso sexual infantil. según datos proporcionados por Thorn.

Esta cifra refleja la urgencia de establecer barreras digitales efectivas contra la proliferación de este tipo de contenidos en Internet.

La inteligencia artificial generativa, si bien tiene un enorme potencial de innovación, también representa un riesgo importante para la protección y seguridad de los menores, por lo que merece atención urgente.

La IA podría afectar las investigaciones policiales de este tipo de delitos. (Imagen ilustrativa Infobae)

Según el documento que sustenta el citado proyecto, la IA puede afectar el proceso de identificación de víctimas con la proliferación de imágenes falsas.

Además, esta tecnología se puede utilizar para intensificar las prácticas de acoso, como el acicalamiento y la sextorsión, mediante la producción de contenido que simule acciones y poses explícitas sin la necesidad de material inicial explícito.

Este tipo de contenido también podría tener el potencial de aumentar los delitos de contacto físico. “La normalización de este material también contribuye a otros resultados perjudiciales para los niños”, se lee en el documento.

Los depredadores pueden utilizar modelos de IA generativa para compartir consejos sobre cómo cometer abusos de manera efectiva, incluidas formas de coaccionar a las víctimas, destruir pruebas o manipular material de abuso para evitar la detección.

La generación de imágenes sexuales no consentidas con IA es un fenómeno que se extiende a los adultos. (Imagen ilustrativa Infobae)

El fenómeno de la creación y distribución de imágenes no consentidas mediante inteligencia artificial se ha extendido más allá de los menores de edad, afectando también a los adultos, incluidos personajes públicos y celebridades.

Una investigación reciente de Forbes descubrió cómo eBay, la conocida plataforma de subastas en línea, se había convertido en un mercado para la venta de contenido explícito falso de celebridades conocidas.

Utilizando inteligencia artificial avanzada y herramientas de edición como Photoshop, se generaron imágenes sexualmente explícitas de al menos 40 personalidades famosasentre ellas Margot Robbie, Selena Gómez y Jenna Ortega.

Las celebridades son víctimas de la venta de deepfakes sexuales no consensuales. (Instagram: Taylor Swift, Selena Gómez y Jenna Ortega)

Asombrosamente, Una tienda eBay puso a la venta más de 400 productos que contenían fotografías alteradas de celebridades como Taylor Swift, Selena Gomez, Katy Perry, Ariana Grande y Alexandria Ocasio-Cortez, presentándolos en situaciones comprometedoras.

La reacción de eBay ante la alerta de Forbes no se hizo esperar, procediendo a eliminar cientos de estas fotografías falsas y suspender las cuentas de los vendedores implicados.

Este incidente subraya la urgencia de implementar medidas más rigurosas para combatir la difusión de contenido digital generado sin consentimiento, destacando la necesidad de un marco regulatorio más estricto que proteja la integridad y privacidad de todas las personas en el entorno digital.

 
For Latest Updates Follow us on Google News
 

PREV Word resuelve uno de los problemas más antiguos al pegar texto: .
NEXT Novedades que llegarán al iPhone y cómo descargar la actualización