Snapchat agregará una marca de agua a las imágenes generadas por IA

Snapchat agregará una marca de agua a las imágenes generadas por IA
Snapchat agregará una marca de agua a las imágenes generadas por IA

Snapchat ha anunciado que pronto agregará una marca de agua a todas las imágenes de la plataforma que hayan sido creadas mediante Inteligencia Artificial (IA) generativa y lo hará cuando estas creaciones se exporten o guarden en el carrete de la cámara.

La compañía cree que los usuarios de la plataforma “deberían estar informados sobre los tipos de tecnologías que utilizan”, para lo que la firma ya utiliza iconos, símbolos y etiquetas que aportan contexto e información cuando interactúan en conversaciones basadas en texto con el ‘chatbtot’ Mi IA. , impulsado por ChatGPT.

También dijo que es “muy cuidadoso” al examinar los anuncios políticos a través de un proceso de revisión humana, que incluye una verificación “minuciosa” de cualquier uso engañoso de contenido o IA generativa.

Para brindar más contexto sobre lo que se comparte, anunció que pronto agregará una marca de agua a las imágenes creadas con las herramientas de inteligencia artificial de Snapchat. Esto se verá cuando la imagen se exporte o guarde en el carrete de la cámara.

De esta forma, los destinatarios de estas imágenes generadas con IA podrán ver el logo de Snapchat con una estrella en la parte superior derecha, lo que indica que se ha utilizado una herramienta impulsada por esta tecnología para crear dicho contenido.

Snapchat ha actualizado su Centro de ayuda para aconsejar a los usuarios que no eliminen esta marca de agua, ya que viola los Términos de servicio de la plataforma. Asimismo, ha aconsejado no dar por sentado que los resultados de la IA sean ciertos, porque es una tecnología “destinada a alterar o transformar una imagen”.

CUMPLIR CON LOS REQUISITOS DE PRIVACIDAD

Snapchat ha aclarado que todas las funciones impulsadas por IA siempre se someten a una revisión estricta para garantizar que cumplan con sus principios de seguridad y privacidad. Por ello, cuenta con el llamado equipo rojo de IA, que prueba la consistencia de los resultados de la IA e identifica fallas en los modelos para implementar soluciones de seguridad.

También recordó que tiene una serie de principios de gobernanza responsable y que ha creado un proceso de revisión de seguridad para detectar y eliminar mensajes potencialmente problemáticos en las primeras etapas de desarrollo de las experiencias de AI Lens. Asimismo, ha dicho que, teniendo todo esto en cuenta, está implementando pruebas adicionales para minimizar resultados de IA potencialmente sesgados.

 
For Latest Updates Follow us on Google News
 

PREV El telescopio James Webb captura la ‘cabeza de caballo’ con un detalle sin precedentes – .
NEXT 33 Inmortales, Commandos Origins, Tails of Iron 2 y más –.