Deepfake : la société britannique Arup est la proie d’une arnaque à 25 millions de dollars, comment se protéger ?

Par:
sur May 17, 2024
Listen
  • Cette fraude sophistiquée a amené l'un de ses employés de Hong Kong à transférer 25 millions de dollars à des fraudeurs.
  • Arup a informé la police de Hong Kong en janvier de l'incident, confirmant que de fausses voix et images avaient été utilisées.
  • La technologie Deepfake présente des risques importants qui nécessitent de la vigilance et des mesures proactives pour les atténuer.

Suivez Invezz sur TelegramTwitter, et Google Actualités pour recevoir des notifications de dernière minute >

La société multinationale britannique de conception et d’ingénierie Arup, réputée pour ses bâtiments emblématiques comme l’Opéra de Sydney, a confirmé qu’elle était la cible d’une arnaque deepfake.

Vous cherchez des signaux et des alertes de la part de pro-traders ? Inscrivez-vous à Invezz Signals™ GRATUITEMENT. Cela prend 2 minutes.

Cette fraude sophistiquée a amené l’un de ses employés de Hong Kong à transférer 25 millions de dollars à des fraudeurs.

Quelle était la fraude ?

Copy link to section

Arup a informé la police de Hong Kong de l’incident en janvier, confirmant que de fausses voix et images avaient été utilisées.

L’arnaque impliquait un employé financier qui avait été amené à assister à un appel vidéo avec des personnes qu’il croyait être le directeur financier et d’autres membres du personnel, qui étaient tous des recréations deepfake.

Malgré les premières suspicions d’un email de phishing, l’apparence réaliste et les voix de ses supposés collègues ont conduit l’employé à procéder à des transactions, totalisant 200 millions de dollars de Hong Kong (25,6 millions de dollars) répartis en 15 transferts.

Menace croissante de la fausse technologie

Copy link to section

L’incident souligne la sophistication croissante de la technologie des deepfakes.

Rob Greig, directeur mondial de l’information d’Arup, a déclaré :

Copy link to section

“Comme beaucoup d’autres entreprises dans le monde, nos opérations sont régulièrement soumises à des attaques, notamment des fraudes sur factures, des escroqueries par phishing, l’usurpation de la voix WhatsApp et des deepfakes.”

Le nombre et la sophistication de ces attaques ont fortement augmenté, posant des défis importants aux entreprises du monde entier.

Préoccupation mondiale et réponse interne

Copy link to section

Les autorités du monde entier sont de plus en plus préoccupées par les utilisations malveillantes de la technologie deepfake.

Dans une note interne, Michael Kwok, président régional d’Arup pour l’Asie de l’Est, a souligné la fréquence et la sophistication croissantes de ces attaques, exhortant les employés à rester informés et vigilants pour repérer les différentes techniques d’escroquerie.

Résilience opérationnelle et enquête en cours

Copy link to section

Malgré la perte financière importante, Arup a assuré que sa stabilité financière et ses opérations commerciales n’étaient pas affectées et qu’aucun de ses systèmes internes n’était compromis. L’entreprise continue de travailler avec les autorités et l’enquête se poursuit.

Cet incident très médiatisé met en évidence la nécessité urgente pour les entreprises de renforcer leurs mesures de cybersécurité afin de lutter contre la menace croissante des technologies deepfake et d’autres escroqueries sophistiquées.

Qu’est-ce qu’un deepfake ?

Copy link to section

Un deepfake est un contenu généré à l’aide de techniques d’apprentissage profond qui semble réel mais qui est fabriqué. L’intelligence artificielle ( IA ) utilisée pour créer des deepfakes utilise généralement des modèles génératifs, tels que les réseaux contradictoires génératifs (GAN) ou les encodeurs automatiques.

Les deepfakes peuvent être des vidéos, des enregistrements audio ou des images représentant des individus ou des groupes faisant ou disant des choses qu’ils n’ont jamais faites.

Pour produire du contenu convaincant, l’IA doit s’entraîner sur de grands ensembles de données pour reconnaître et reproduire des modèles naturels.

La technologie Deepfake, bien qu’innovante, ouvre des opportunités dangereuses d’utilisation illégale, notamment le vol d’identité, la falsification de preuves, la désinformation, la calomnie et le contournement de la sécurité biométrique.

Les fraudeurs exploitent souvent l’autorité de la personne représentée ou ses liens personnels avec leurs cibles.

Types de deepfakes

Copy link to section

Les deepfakes peuvent produire du contenu vidéo, audio ou image, utilisé comme support enregistré ou dans des flux en temps réel. Ces formats peuvent être rencontrés dans divers scénarios, des publications sur les réseaux sociaux aux appels téléphoniques et vidéoconférences.

Échange de visage : Cette application remplace les traits du visage d’une personne cible par de faux traits, souvent ceux d’une autre personne.

Des techniques telles que la détection et la manipulation des repères faciaux rendent le mélange homogène et difficile à repérer lorsqu’on est pris par surprise.

Clonage vocal : Cette technique reproduit la voix d’un individu. Des données audio de haute qualité provenant d’enregistrements de la personne cible parlant dans divers contextes sont nécessaires pour former un modèle de clonage vocal.

Deepfakes vidéo en temps réel

Copy link to section

Les deepfakes vidéo en temps réel génèrent instantanément du contenu vidéo manipulé pendant les diffusions en direct et les appels vidéo.

Le clonage vocal et l’échange de visages sont fréquemment utilisés pour créer un faux environnement convaincant. Les logiciels de génération de Deepfake peuvent s’intégrer aux plateformes de streaming et aux outils de vidéoconférence de plusieurs manières :

Une application distincte capture, traite et envoie le flux vidéo manipulé au logiciel de conférence.

Intégration directe dans un logiciel de visioconférence en tant que fonctionnalité ou plugin optionnel.

Utiliser une caméra virtuelle pour intercepter le flux vidéo de la caméra physique et produire le flux manipulé.

Comment se protéger contre les deepfakes ?

Copy link to section

À mesure que la technologie des deepfakes progresse, il est crucial de vous protéger, vous et votre organisation, contre la fraude. Voici quelques moyens de vous protéger contre les deepfakes :

Méfiez-vous des signaux d’alarme : recherchez des expressions faciales ou des mouvements irréalistes, des incohérences dans l’éclairage et les ombres, des mouvements de tête ou du corps non naturels et une qualité audio et vidéo inadaptée.

Soyez proactif en cas de suspicion : engagez une conversation informelle pour prendre un fraudeur au dépourvu. Demandez à la personne de partager son écran ou de confirmer son identité en fournissant des informations exclusives ou en envoyant un message de confirmation via un autre canal.

Configurer une phrase secrète : établissez un mot de passe ou une phrase secrète pour les sujets sensibles avec vos collègues et les membres de votre famille. Cette méthode est efficace dans la communication vocale, vidéo et textuelle.

La technologie Deepfake présente des risques importants qui nécessitent de la vigilance et des mesures proactives pour les atténuer.

En comprenant les types de deepfakes et en mettant en œuvre des stratégies pour les identifier et les contrecarrer, les individus et les organisations peuvent mieux se protéger contre les fraudes potentielles.

Alors que l’IA générative continue de se développer, rester informé et préparé est crucial pour se prémunir contre la menace croissante des deepfakes.

Cet article a été traduit de l'anglais à l'aide d'outils d'intelligence artificielle, puis relu et corrigé par un traducteur local.

UK Technologie