Tenga cuidado con las llamadas de audio falsas que pueden imitar las voces de sus seres queridos

Incluso cuando los vídeos profundamente falsos de la actriz de cine Rashmika Mandanna y el del primer ministro Narendra Modi bailando conmocionaron al país, los expertos en ciberseguridad advierten que se avecina una crisis mucho más profunda.

Esta vez los piratas informáticos podrían utilizar inteligencia artificial para crear y utilizar voces profundamente falsas, que son aún más difíciles de distinguir, dijeron expertos en ciberseguridad de Kaspersky.

Citaron el ejemplo reciente de una nueva canción de los Beatles creada utilizando inteligencia artificial, combinando partes de una grabación antigua. Si bien el aspecto positivo de la IA alegró a los amantes de Beetle, es hora de que prestemos atención al lado más oscuro del uso de la IA que puede crear voces falsas.

deepfakes de voz

¿De qué son capaces los deepfakes de voz? Imagina que recibes una llamada telefónica con una voz como la de tus padres, tu hermano o tu mejor amigo. O alguien graba un mensaje falso usando la voz de una celebridad. Puede crear estragos ya que es muy difícil para la gente común distinguir entre la voz falsa y la original.

“Open AI demostró recientemente un modelo de API de audio que puede generar voz humana y texto de entrada de voz. Hasta ahora, sólo este software Open AI es el más cercano al habla humana real. En el futuro, estos modelos también pueden convertirse en una nueva herramienta en manos de los atacantes”, afirmó un experto de Kaspersky.

La API de audio puede reproducir el texto especificado por voz, mientras que los usuarios pueden elegir con cuál de las opciones de voz sugeridas se pronunciará el texto. El modelo Open AI, en su forma actual, no se puede utilizar para crear voces deepfake, pero es indicativo del rápido desarrollo de las tecnologías de generación de voz.

“En los últimos meses se están lanzando más herramientas para generar una voz humana. Anteriormente, los usuarios necesitaban conocimientos básicos de programación, pero ahora cada vez es más fácil trabajar con ellos. En un futuro próximo, podemos esperar ver modelos que combinen simplicidad de uso y calidad de resultados”, afirmó.

¿Cómo protegerse?

“Por ahora, la mejor manera de protegerse es escuchar atentamente lo que le dice la persona que llama por teléfono. Si la grabación es de mala calidad, tiene ruidos y la voz suena robótica, no es suficiente para confiar en la información que escuchas”, dijo Dmitry Anikin, científico de datos senior de Kaspersky.

“Sin embargo, es necesario ser consciente de las posibles amenazas y estar preparado para que el fraude deepfake avanzado se convierta en una nueva realidad en un futuro próximo”, dijo.

Otra buena manera de comprobar la veracidad de la persona que llama es hacer algunas preguntas innovadoras, como los libros que uno lee o los colores que le gustan.

X

Este es tu último artículo gratuito.

 
For Latest Updates Follow us on Google News
 

PREV NASA publica impresionante vista del horizonte de Marte – .
NEXT La dirección comienza una investigación mientras el incendio arrasa el edificio del Senado de ABU.