Alerte / Deepfake audio : Les escrocs utilisent des intelligences artificielles pour leurs méfaits

Deepfake audio escrocs

Crédit : 20 minutes / Geeko

Les arnaques deviennent de plus en plus sophistiquées au fil des ans, et les escrocs utilisent désormais l’Intelligence Artificielle (IA) et le Deepfake audio pour augmenter leur efficacité.

Cette dernière est une technologie qui permet de créer des enregistrements audio de haute qualité qui semblent authentiques, même s’ils sont complètement falsifiés.

Les escrocs utilisent le Deepfake audio pour créer des enregistrements audio qui semblent provenir d’un proche, comme un membre de la famille ou un ami, pour tromper leur victime.

Pour ce faire, ils obtiennent d’abord des informations personnelles sur leurs victimes, qu’ils peuvent ensuite utiliser pour créer leurs faux audios.

Ils peuvent également utiliser des techniques de phishing pour obtenir des informations de connexion à des comptes de messagerie ou de réseaux sociaux, leur permettant ainsi d’accéder aux conversations de la victime.

Les escroqueries de Deepfake audio sont particulièrement insidieuses, car elles exploitent la confiance que les gens ont envers leurs proches. Les victimes sont souvent prêtes à aider un proche en difficulté et ne se méfient pas de l’appel.

Les autorités mettent en garde contre cette tendance à la hausse des arnaques de Deepfake audio et recommandent de ne jamais donner de l’argent à quelqu’un sans avoir vérifié l’identité de la personne.

Il est important de prendre le temps de vérifier que l’appel provient bien de la personne qu’elle prétend être, même si cela prend plus de temps.

En conclusion, les escroqueries de Deepfake audio sont une menace croissante.

Si vous ne voulez rien rater de nos dernières informations, abonnez-vous vite à notre canal Telegram.

Lire aussi :

République centrafricaine : Wagner accusé de mort de neuf Chinois dans le pays