Microsoft, Google, Meta y OpenAI unen fuerzas para combatir el uso de IA para crear imágenes de abuso sexual a menores

Microsoft, Google, Meta y OpenAI unen fuerzas para combatir el uso de IA para crear imágenes de abuso sexual a menores
Microsoft, Google, Meta y OpenAI unen fuerzas para combatir el uso de IA para crear imágenes de abuso sexual a menores

08:35 a.m.

Microsoft, Meta, Google y OpenAI, entre otras grandes firmas tecnológicas enfocadas al desarrollo de herramientas de Inteligencia Artificial (IA) generativa, se han comprometido a combatir las imágenes de abuso sexual infantil (CSAM) resulta del uso de esta tecnología y sigue una serie de medidas de seguridad por diseño.

Te recomendamos leer: Los escandalosos chats que expusieron al gringo que intentaba llegar a Medellín para abusar de 4 niñas

En 2023 se denunciaron más de 104 millones de archivos sospechosos de incluir imágenes de abuso sexual infantil –CSAM– en Estados Unidos, una afluencia de imágenes generadas por IA que “plantea riesgos significativos para un ecosistema de seguridad infantil ya sobrecargado”, como señala la organización de seguridad infantil Thorn.

A esta organización y All Tech is Human, que promueve el uso responsable de las tecnologías, se han sumado Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, MistralAI, OpenAI, Stability AI y Teleperformance, para impulsan una iniciativa que busca proteger a los menores contra el uso indebido de la IA.

En concreto, las empresas tecnológicas se han comprometido públicamente con los llamados principios de seguridad por diseñouna serie de medidas que surgen de la necesidad de erradicar la fácil creación de este tipo de contenidos.

En este momento, Los ciberdelincuentes pueden utilizar la IA generativa para diversos fines: desde dificultar la identificación de las víctimas infantiles hasta generar más demanda de material relacionado con el abuso infantil y permitir el intercambio de información entre depredadores sexuales..

Por ello, se han establecido una serie de medidas de seguridad por diseño, que requieren que las empresas “anticipen dónde pueden ocurrir amenazas durante el proceso de desarrollo” de estas herramientas y diseñar las soluciones necesarias antes de que se produzca el daño.

Quizás te interese: “Uno cae muy fácilmente”: adolescentes víctimas y en riesgo de explotación sexual en Medellín

En primer lugar, los firmantes se han comprometido a desarrollar, construir y formar Modelos de IA generativa que abordan proactivamente los riesgos de seguridad infantilun proceso en el que se deben estudiar los datos de entrenamiento de tus modelos, para que no reproduzcan contenidos abusivos.

Este apartado también tiene en cuenta la necesidad de implementar marcas de agua en estas imágenes y el uso de otras técnicas que indiquen que son contenidos generados por IA.

Por otro lado, los gigantes tecnológicos promocionan con esta iniciativa publicar y distribuir modelos de IA generativa después de que hayan sido capacitados y evaluados para la seguridad infantilprotegiendo en todo momento a los menores.

También han acordado mantener la seguridad de sus modelos y plataformas de IA, comprendiendo y respondiendo activamente a los riesgos de seguridad infantil, invirtiendo en investigación y futuras soluciones tecnológicas, así como desplegando medidas para detectar y eliminar imágenes que violen la seguridad. niños en sus plataformas.

Google ya está tomando medidas

Por su parte, Google ha comentado su compromiso con los principios de seguridad de la IA generativa en su blog, donde ha indicado que Actualmente cuenta con una serie de herramientas para detener el material CSAM.. En concreto, ha reconocido el uso de una combinación de tecnología de hashmatching con clasificadores de IA, y también revisiones de contenidos por parte de su equipo humano.

“Cuando identificamos contenido de explotación, lo eliminamos y tomamos las medidas adecuadas”, que pueden incluir informar del incidente al Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados (NMEC), con el que colabora.

También ha dicho que utiliza el aprendizaje automático para identificar búsquedas relacionadas con el abuso y la explotación sexual infantil y evitar producir resultados que puedan explotar o sexualizar a los niños.

Además, tiene un programa de alerta prioritaria para lo cual se ha asociado con expertos que identifican contenidos potencialmente infractores para que los equipos de seguridad de Google puedan revisarlos.

 
For Latest Updates Follow us on Google News
 

PREV ¿Cuánto tiempo lleva hackear una contraseña?
NEXT ¿Cuánto tiempo lleva hackear una contraseña?