A person is using a SONY IC STEREO HEADPVON MOR-7506 PIOTRSSIUREY to watch multimedia content on a personal computer, LED-backlit LCD display, and television screen.

Votre voix peut être clonée par toute personne disposant d’une connexion Internet

Vous venez de rentrer chez vous après une longue journée de travail et vous êtes sur le point de vous asseoir pour le dîner quand tout à coup votre téléphone se met à vibrer.

À l’autre extrémité, un être cher, peut-être un parent, un enfant ou un ami d’enfance, vous supplie de lui envoyer de l’argent immédiatement.

Vous leur posez des questions en essayant de comprendre. Il y a quelque chose qui cloche dans leurs réponses, qui sont soit vagues soit hors de propos, et parfois il y a un retard particulier, presque comme s’ils réfléchissaient un peu trop lentement.

Pourtant, vous êtes certain que c’est bien votre proche qui parle : c’est sa voix que vous entendez, et l’identification de l’appelant affiche son numéro. Soulignant l’étrangeté de leur panique, vous envoyez consciencieusement l’argent sur le compte bancaire qu’ils vous fournissent.

Le lendemain, vous les rappelez pour vous assurer que tout va bien. Votre proche ne sait pas de quoi vous parlez.

C’est parce qu’ils ne vous ont jamais appelé – vous avez été trompé par la technologie : un deepfake de voix. Des milliers de personnes ont été arnaquées de cette façon en 2022.

En tant que chercheurs en sécurité informatique, nous constatons que les progrès continus des algorithmes d’apprentissage en profondeur, de l’édition et de l’ingénierie audio et de la génération de voix synthétiques signifient qu’il est de plus en plus possible de simuler de manière convaincante la voix d’une personne.

Pire encore, les chatbots comme ChatGPT commencent à générer des scripts réalistes avec des réponses adaptatives en temps réel.

En combinant ces technologies avec la génération de voix, un deepfake passe d’un enregistrement statique à un avatar vivant et réaliste qui peut avoir une conversation téléphonique de manière convaincante.

Cloner une voix

Image : Pexels

Créer un deepfake convaincant de haute qualité, qu’il s’agisse de vidéo ou d’audio, n’est pas la chose la plus facile à faire. Cela nécessite une richesse de compétences artistiques et techniques, un matériel puissant et un échantillon assez lourd de la voix cible.

Il existe un nombre croissant de services proposant de produire des clones de voix de qualité moyenne à élevée moyennant des frais, et certains outils de deepfake vocal n’ont besoin que d’un échantillon d’une minute, voire de quelques secondes, pour produire un clone de voix qui pourrait être suffisamment convaincant pour tromper quelqu’un.

Cependant, pour convaincre un être cher – par exemple, de l’utiliser dans une escroquerie d’usurpation d’identité – il faudrait probablement un échantillon beaucoup plus important.

Se protéger des escroqueries et de la désinformation

Cela dit, nous, du projet DeFake du Rochester Institute of Technology, de l’Université du Mississippi et de l’Université d’État du Michigan, et d’autres chercheurs travaillons dur pour pouvoir détecter les deepfakes vidéo et audio et limiter les dommages qu’ils causent.

Il existe également des actions simples et quotidiennes que vous pouvez prendre pour vous protéger.

Pour commencer, le phishing vocal ou «vishing», les escroqueries comme celle décrite ci-dessus sont les deepfakes vocaux les plus probables que vous pourriez rencontrer dans la vie de tous les jours, tant au travail qu’à la maison.

En 2019, une entreprise énergétique s’est fait escroquer 243 000 dollars américains lorsque des criminels ont simulé la voix du patron de sa société mère pour ordonner à un employé de transférer des fonds à un fournisseur.

En 2022, des personnes ont été escroquées sur environ 11 millions de dollars par des voix simulées, y compris des relations personnelles proches.

Que pouvez-vous faire?

Image : Ronstik / Shutterstock

Soyez attentif aux appels inattendus, même de la part de personnes que vous connaissez bien.

Cela ne veut pas dire que vous devez planifier chaque appel, mais cela aide au moins à envoyer un e-mail ou un SMS à l’avance. De plus, ne vous fiez pas à l’identification de l’appelant, car cela peut également être truqué.

Par exemple, si vous recevez un appel d’une personne prétendant représenter votre banque, raccrochez et appelez directement la banque pour confirmer la légitimité de l’appel. Assurez-vous d’utiliser le numéro que vous avez noté, enregistré dans votre liste de contacts ou que vous pouvez trouver sur Google.

De plus, soyez prudent avec vos informations d’identification personnelles, comme votre numéro de sécurité sociale, votre adresse personnelle, votre date de naissance, votre numéro de téléphone, votre deuxième prénom et même les noms de vos enfants et de vos animaux domestiques.

Les escrocs peuvent utiliser ces informations pour se faire passer pour vous auprès des banques, des agents immobiliers et autres, s’enrichissant tout en vous mettant en faillite ou en détruisant votre crédit.

Voici un autre conseil : connais-toi toi-même. Plus précisément, connaissez vos préjugés et vos vulnérabilités intellectuelles et émotionnelles. C’est un bon conseil de vie en général, mais c’est essentiel pour se protéger d’être manipulé.

Les escrocs cherchent généralement à démêler puis à exploiter vos angoisses financières, vos attachements politiques ou d’autres inclinations, quelles qu’elles soient.

Cette vigilance est également une défense décente contre la désinformation à l’aide de deepfakes vocaux. Les deepfakes peuvent être utilisés pour tirer parti de votre biais de confirmation ou de ce que vous êtes enclin à croire à propos de quelqu’un.

Si vous entendez une personne importante, que ce soit de votre communauté ou du gouvernement, dire quelque chose qui lui semble très inhabituel ou qui confirme vos pires soupçons à son égard, vous feriez mieux de vous méfier.

Avez-vous des idées à ce sujet? Envoyez-nous une ligne ci-dessous dans les commentaires, ou transférez la discussion sur notre Twitter ou Facebook.

Note de l’éditeur : cet article a été écrit par Matthew Wright, professeur de sécurité informatique, Rochester Institute of Technology, Christopher Schwartz, associé de recherche postdoctoral en sécurité informatique, Rochester Institute of Technology, et republié à partir de The Conversation sous une licence Creative Commons. Lire l’article d’origine.

Voir également

best ai website builders illustration

Les meilleurs constructeurs de sites Web d’IA (2023)

Vous manquez de temps ? Sauter en avant Dans le monde trépidant d’aujourd’hui, le temps …