Pour des raisons d’enquête en cours, la police de Hong Kong n’a pas divulgué les détails de l’entreprise victime de l’arnaque.
Les deepfakes utilisent des outils d’IA pour créer de fausses vidéos ou des enregistrements audio très convaincants, posant ainsi des défis importants aux individus et aux organisations pour distinguer le vrai du faux.
Tout le monde avait l’air réel.
Mais l’employé pendant cette vidéo-conférence ne savait pas qu’il parlait à des #deepfakes de ses collègues, quand il a fait un virement de 25 millions$.https://t.co/MhvECbcVpY (extrait de ma dernière vidéo) https://t.co/C1avyfjGo1 pic.twitter.com/42U0rm6o6w— Momotchi (@mmtchi) June 16, 2024
Cet incident est le premier du genre à Hong Kong, impliquant une somme importante et l’utilisation de la technologie deepfake pour simuler une visioconférence multipartite où tous les participants, à l’exception de la victime, étaient des images fabriquées de vraies personnes. Les escrocs ont été en mesure de reproduire de manière convaincante l’apparence et la voix des personnes ciblées en utilisant des séquences vidéo et audio publiques. La police de Hong Kong enquête actuellement sur l’affaire, aucune arrestation n’a été signalée à ce jour.
L’arnaque a été initialement découverte suite à une tentative de hameçonnage, lorsqu’un employé du département financier de la succursale hongkongaise de l’entreprise a reçu ce qui semblait être un message de hameçonnage, prétendument envoyé par le directeur financier du siège de l’entreprise au Royaume-Uni, lui demandant d’effectuer une transaction secrète. Malgré des doutes initiaux, l’employé a été convaincu par la présence du directeur financier et d’autres personnes dans un appel de visioconférence de groupe pour effectuer 15 transferts totalisant 200 millions HKD vers cinq comptes bancaires différents à Hong Kong. Les responsables ont réalisé que l’arnaque avait eu lieu environ une semaine plus tard, déclenchant une enquête policière.
Le vol high-tech souligne les préoccupations croissantes concernant les nouvelles utilisations de la technologie de l’IA, qui a été mise en lumière récemment en raison d’incidents tels que la propagation de fausses images explicites de la superstar de la pop Taylor Swift. Au cours de l’année écoulée, les escrocs ont utilisé la technologie audio deepfake pour escroquer des gens en se faisant passer pour des proches en difficulté.
L’inspecteur en chef adjoint Baron Chan Shun-ching de la police de Hong Kong a souligné le caractère novateur de cette arnaque, notant qu’il s’agissait du premier cas à Hong Kong où les victimes ont été trompées dans un contexte de visioconférence multipartite. Il a souligné la stratégie de l’escroc consistant à ne pas s’engager directement avec la victime au-delà de la demande d’une auto-présentation, ce qui a rendu l’arnaque plus convaincante.
La police a fourni des conseils pour vérifier l’authenticité des personnes lors des appels vidéo, tels que leur demander de bouger la tête ou de répondre à des questions qui confirment leur identité, en particulier lorsque des demandes de transfert d’argent sont impliquées. Une autre solution potentielle aux arnaques deepfake dans les environnements d’entreprise est d’équiper chaque employé d’une paire de clés cryptées, en établissant la confiance en signant les clés publiques lors de réunions en personne. Plus tard, dans les communications à distance, ces clés signées pourraient être utilisées pour authentifier les parties au sein de la réunion.
De plus, la police de Hong Kong prévoit d’améliorer son système d’alerte couvrant le système de paiement plus rapide (FPS) pour inclure des avertissements pour les transactions liées à des arnaques connues, en étendant la couverture pour inclure une gamme plus large de transactions électroniques et en personne d’ici la deuxième moitié de l’année.
Une traduction du Média en 4-4-2 d’après un article de Arstechnica.
Pas encore de commentaire sur "Une vidéoconférence deepfake trompe une entreprise et lui fait perdre 25 millions de dollars"