C’est une histoire digne d’un film de science-fiction que nous raconte le site Forbes.
Un directeur d’une banque de Hong-Kong reçoit un appel téléphonique d’un homme dont il reconnaît la voix. Ce dirigeant d’entreprise avec qui il s’était déjà entretenu est en passe de boucler une acquisition. Il a besoin pour cela que son établissement autorise des transferts d’argent à hauteur de 35 millions de dollars. Ce que ne sait pas le banquier c’est que la voix entendue est celle d’une machine. Il a été victime d’une arnaque au président augmentée par l’IA !
Selon Loïc Guézo, directeur senior en stratégie de cybersécurité chez Proofpoint, ce deepfake vocal constitue un vecteur d’attaque particulièrement pertinent. « Alors que le moindre défaut sur une image est facilement perceptible, on accepte que la qualité sonore d’un appel téléphonique d’un PDG, passé entre deux avions, soit déficiente. Non seulement il existe un grand nombre d’interviews en ligne de dirigeants d’entreprise mais le traitement de la voix nécessite moins de puissance de calcul qu’une deepfake vidéo », argue le consultant. Mais ce n’est qu’une question de temps avertit l’expert. « A l’avenir, les vidéos seront également détournées », prévient-il.
« Face à ce type de menaces, facile à mettre en œuvre par les pirates grâce à l’I.A., Il convient de mettre en place une politique spécifique pour les ordres de paiement ou autres ordres stratégiques. Je préconise une phrase ou un mot de passe qu’il est conseillé d’instaurer avec vos partenaires et collaborateurs susceptibles de répondre à un ordre stratégique (Finance, Mot de passe administrateur, envoi de documents stratégiques, etc…). Cette phrase devra être prononcée avant exécution de l’ordre »
Yann BELZ dirigeant d’ Espace Technologie