Artwork

Content provided by France Médias Monde. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by France Médias Monde or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Player FM - Podcast App
Go offline with the Player FM app!

Le clonage des voix par IA inquiète le Royaume-Uni

3:15
 
Share
 

Manage episode 442304086 series 97179
Content provided by France Médias Monde. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by France Médias Monde or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.

La multiplication des programmes de clonage des voix par IA qui pullulent sur les réseaux sociaux, profite aussi aux cybercriminels qui abusent de cette technique pour soutirer de l'argent à leurs victimes. Une étude de la néo-banque britannique Starling Bank révèle ainsi que sur les 3 000 personnes qu’elle a interrogées, 840, depuis le début de l’année, se sont fait berner par des hypertrucages vocaux.

Depuis la mise à disposition grand public de l’intelligence artificielle dite générative, de nombreux petits programmes permettent aux internautes de créer facilement une photo ou une vidéo confondante de réalisme. Dénommés Deepfake par les anglophones, ces techniques de trucages se propagent sur les réseaux sociaux de mobile en smartphone. Mais ce qui existe dans le domaine de l’image existe bien évidemment aussi pour l’audio. Et de nombreux logiciels de clonage de voix par IA sont disponibles en ligne. Les cybercriminels les utilisent afin de mieux vous arnaquer. Leur mode opératoire est assez simple, ils récupèrent en premier la voix de leurs prochaines victimes à partir de vidéos dénichées sur les réseaux sociaux. Puis, les escrocs importent cet échantillon vocal sur un site Web spécialisé dans le clonage de voix. Dernière étape, les arnaqueurs qui ont identifié l’entourage de leur victime, amis ou famille, toujours en passant par les réseaux sociaux, organisent un appel téléphonique ou laisser une note vocale demandant de l'argent en urgence. Les escrocs « n’ont besoin que de trois secondes d’audio pour cloner une voix », précise l’étude publiée par la néo-banque britannique Starling Bank qui a voulu quantifier le phénomène.

Près d’une personne sur deux ignore l’existence de ce type d’escroquerie

Selon les résultats enquête menée par la banque, plus d’un quart des personnes interrogées ont déclaré avoir été la cible d’une arnaque au clonage vocal par IA dans les 12 derniers mois au Royaume-Uni. Mais cette étude a montré que pratiquement la moitié des personnes interrogées ignoraient l’existence même de ce type escroquerie. Pire, 8 % d’entre elles ont déclaré avoir envoyé l’argent demandé par les escrocs pour aider un proche. Un récent rapport de l'Office européen de police, révèle que les cybercriminels emploient également cette méthode de clonage vocal par IA pour escroquer des entreprises, précise Xavier Duros, le directeur technique en France de la société de cybersécurité Checkpoint : « de plus en plus d’outils en ligne de réalisation des deepfakes permettent aux internautes de pouvoir transformer une image, une voix ou de transformer une vidéo en se faisant passer pour quelqu’un d’autre. Et les arnaques perpétrées par IA sont légion. D’où la nécessité pour les grandes sociétés, dans lesquels se développe actuellement une culture d’entreprise dénommée « zéro confiance », de vérifier systématiquement l’identité d’une personne ordonnant en ligne ou par téléphone de transférer des fonds. »

Des arnaques par IA pour « piéger des millions de personnes »

Le clonage de voix par IA n’en est qu’à ses balbutiements, mais la technique, entre les mains des cybercriminels, a le potentiel de « piéger des millions de personnes », indique l’étude.

Et pour éviter de se faire berner, la banque en ligne préconise de choisir une phrase de sécurité, qui sera définie à l'avance avec ses principaux contacts, que l’on soit un particulier ou une entreprise. Une sorte de code confidentiel, qu’il ne faudra évidemment jamais partager sur les réseaux sociaux et que l'on pourra demander à son interlocuteur en cas d’appel douteux.

  continue reading

307 episodes

Artwork
iconShare
 
Manage episode 442304086 series 97179
Content provided by France Médias Monde. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by France Médias Monde or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.

La multiplication des programmes de clonage des voix par IA qui pullulent sur les réseaux sociaux, profite aussi aux cybercriminels qui abusent de cette technique pour soutirer de l'argent à leurs victimes. Une étude de la néo-banque britannique Starling Bank révèle ainsi que sur les 3 000 personnes qu’elle a interrogées, 840, depuis le début de l’année, se sont fait berner par des hypertrucages vocaux.

Depuis la mise à disposition grand public de l’intelligence artificielle dite générative, de nombreux petits programmes permettent aux internautes de créer facilement une photo ou une vidéo confondante de réalisme. Dénommés Deepfake par les anglophones, ces techniques de trucages se propagent sur les réseaux sociaux de mobile en smartphone. Mais ce qui existe dans le domaine de l’image existe bien évidemment aussi pour l’audio. Et de nombreux logiciels de clonage de voix par IA sont disponibles en ligne. Les cybercriminels les utilisent afin de mieux vous arnaquer. Leur mode opératoire est assez simple, ils récupèrent en premier la voix de leurs prochaines victimes à partir de vidéos dénichées sur les réseaux sociaux. Puis, les escrocs importent cet échantillon vocal sur un site Web spécialisé dans le clonage de voix. Dernière étape, les arnaqueurs qui ont identifié l’entourage de leur victime, amis ou famille, toujours en passant par les réseaux sociaux, organisent un appel téléphonique ou laisser une note vocale demandant de l'argent en urgence. Les escrocs « n’ont besoin que de trois secondes d’audio pour cloner une voix », précise l’étude publiée par la néo-banque britannique Starling Bank qui a voulu quantifier le phénomène.

Près d’une personne sur deux ignore l’existence de ce type d’escroquerie

Selon les résultats enquête menée par la banque, plus d’un quart des personnes interrogées ont déclaré avoir été la cible d’une arnaque au clonage vocal par IA dans les 12 derniers mois au Royaume-Uni. Mais cette étude a montré que pratiquement la moitié des personnes interrogées ignoraient l’existence même de ce type escroquerie. Pire, 8 % d’entre elles ont déclaré avoir envoyé l’argent demandé par les escrocs pour aider un proche. Un récent rapport de l'Office européen de police, révèle que les cybercriminels emploient également cette méthode de clonage vocal par IA pour escroquer des entreprises, précise Xavier Duros, le directeur technique en France de la société de cybersécurité Checkpoint : « de plus en plus d’outils en ligne de réalisation des deepfakes permettent aux internautes de pouvoir transformer une image, une voix ou de transformer une vidéo en se faisant passer pour quelqu’un d’autre. Et les arnaques perpétrées par IA sont légion. D’où la nécessité pour les grandes sociétés, dans lesquels se développe actuellement une culture d’entreprise dénommée « zéro confiance », de vérifier systématiquement l’identité d’une personne ordonnant en ligne ou par téléphone de transférer des fonds. »

Des arnaques par IA pour « piéger des millions de personnes »

Le clonage de voix par IA n’en est qu’à ses balbutiements, mais la technique, entre les mains des cybercriminels, a le potentiel de « piéger des millions de personnes », indique l’étude.

Et pour éviter de se faire berner, la banque en ligne préconise de choisir une phrase de sécurité, qui sera définie à l'avance avec ses principaux contacts, que l’on soit un particulier ou une entreprise. Une sorte de code confidentiel, qu’il ne faudra évidemment jamais partager sur les réseaux sociaux et que l'on pourra demander à son interlocuteur en cas d’appel douteux.

  continue reading

307 episodes

All episodes

×
 
Loading …

Welcome to Player FM!

Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.

 

Quick Reference Guide