Une mère d’Arizona a récemment été victime d’une arnaque téléphonique effrayante avec en toile de fond l’utilisation d’une intelligence artificielle (IA) pour cloner la voix de sa fille. Jennifer DeStefano a déclaré que des escrocs ont contacté son téléphone pour lui demander une rançon de 1 million de dollars en utilisant la voix clonée de sa fille de 15 ans, lorsqu’elle était sur un voyage de ski. Elle a été persuadée que sa fille était en danger et a été soulagée de découvrir que sa fille était en sécurité.
Selon les experts en informatique, les techniques de clonage de voix AI ont évolué au point de recréer la tonalité et le discours de quelqu’un à partir de brèves séquences audio. Les experts rappellent l’importance de ne pas divulguer d’informations personnelles sur les réseaux sociaux et d’utiliser une question secrète pour valider l’authenticité de l’appel.
L’arnaque téléphonique fait partie d’une liste croissante de “sophisticated scam tactics”, notamment l’utilisation d’ID de l’appelant falsifiés pour persuader les gens de rappeler, souvent pour des services de téléphonie surtaxés. Les escrocs ont également utilisé des applications de diffusion de localisation pour signaler les endroits où les personnes voyage d’affaires résident.
L’arnaque téléphonique souligne l’importance des dispositifs de sécurité pour protéger contre les tentatives de fraude téléphonique. Les entreprises sont exhortées à se méfier des appels entrants de source inconnue et de ne pas divulguer d’informations par téléphone, notamment les informations financières, les informations personnelles et les informations d’identification.
Enfin, il est conseillé d’utiliser une analyse de risque pour évaluer les risques et les menaces potentielles, de mettre en place des protocoles de réponse aux incidents de sécurité et d’informer le personnel et les clients des pratiques de sécurité.