Luego de la ola de intentos de fraudes por WhatsApp que se realizaron desde números desconocidos procedentes de la India, Indonesia o Senegal, ahora surgen nuevas amenazas por estafas pero más sofisticadas.
Utilizando Inteligencia Artificial (IA) clonan la voz de seres queridos para hacer más creíble el engaño por medio de un mensaje. Los estafadores sutilizan un software de deepfake para crear audios falsos logrando la imitación de la voz de la víctima. Recopilan fragmentos de audio de la persona en cuestión a través de sus redes sociales, llamadas telefónicas o grabaciones filtradas.
Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados «medios sintéticos», son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos. Sus formas más comunes de aplicación son en videos o filtros de realidad aumentada.
«Deepfake» como término proviene de la combinación de las palabras «deep learning» y «fake», para representar algo falso que es resultado de la tecnología de aprendizaje profundo.
Una vez que tienen la voz clonada, los estafadores se contactan con la víctima por WhatsApp, haciéndose pasar por un familiar, amigo o incluso una empresa de confianza. Mediante un tono convincente y usando frases o expresiones que solo la víctima y la persona real conocerían, logran engañarla para que revele información personal, como datos bancarios o claves de acceso.