Automatically translated by AI, read original
Démasquer la menace : comment les deep fakes mettent en danger la sécurité des entreprises
18 juillet 2024

À l'ère du numérique, le paysage des menaces de cybersécurité a considérablement évolué, les cybermenaces générées par l'IA devenant une préoccupation majeure pour les entreprises. Alimentées par l'IA et l'apprentissage automatique, ces menaces peuvent s'adapter, apprendre et exécuter des attaques avec une sophistication et une efficacité sans précédent.
À titre d'exemple – et les leaders de la construction et des transports du monde entier doivent commencer à y prêter une attention particulière – le groupe d'ingénierie britannique Arup a perdu environ 25 millions de dollars US plus tôt en 2024 après que des escrocs ont utilisé des « deep fakes » manipulés par l'IA pour se faire passer pour le directeur financier du groupe et demander des virements d'un employé vers des comptes bancaires à Hong Kong (selon le Financial Times).
En substance, comme l'a rapporté la police de Hong Kong, un employé a reçu un message prétendant provenir du directeur financier d'Arup – basé au Royaume-Uni – concernant une « transaction confidentielle ». Après une visioconférence avec le faux directeur financier et d'autres employés générés par l'IA, l'employé a ensuite effectué plusieurs transactions sur cinq comptes bancaires de Hong Kong, avant de découvrir la fraude.

Falsification numérique hyperréaliste
Face aux progrès technologiques rapides, l'essor des deep fakes générés par l'IA représente un défi majeur pour les entreprises du monde entier. Ces deep fakes, qui consistent en des falsifications numériques hyperréalistes utilisant l'intelligence artificielle, peuvent manipuler des fichiers audio, vidéo et images, donnant l'impression que des individus disent ou font des choses qu'ils n'ont jamais faites. À mesure que la technologie derrière les deep fakes devient plus sophistiquée et accessible, la menace pour la sécurité des entreprises ne fait que croître.
Si les directeurs financiers ne se préoccupent pas toujours de ces incidents, leur fréquence va changer. En tant que dépositaires des clés financières d'une entreprise – et donc cibles potentielles d'usurpation d'identité par des escrocs entreprenants –, la sensibilisation est une première étape essentielle. L'ensemble du personnel doit être sensibilisé aux menaces telles que l'usurpation d'identité potentielle de dirigeants et à l'impact potentiel de telles fraudes sur les processus métier critiques.
Chance de combat
Pour se protéger contre les deep fakes, les entreprises doivent renforcer leurs dispositifs de cybersécurité. La mise en œuvre de systèmes avancés de détection des menaces, basés sur l'apprentissage automatique, peut aider à identifier les deep fakes en analysant les incohérences dans les vidéos, les fichiers audio et les images. Ces systèmes peuvent signaler les contenus suspects pour une enquête plus approfondie. De plus, les entreprises investiront probablement bientôt dans des méthodes d'authentification biométrique, telles que les systèmes de reconnaissance vocale et faciale, conçus pour détecter les anomalies révélatrices de deep fakes.
Si la fraude à la cybersécurité n'est pas nouvelle, les entreprises des secteurs de la construction et des transports ont traditionnellement été plus lentes à s'y adapter, voire souvent réticentes. Ceci dit, le moment est venu pour les directeurs financiers d'en prendre pleinement conscience et d'examiner de plus près les contrôles anti-fraude qu'ils ont mis en place. Les directeurs financiers devraient revoir nombre de leurs processus métier susceptibles d'être exposés à des attaques de type deep fake ou sur les réseaux sociaux. L'émergence de l'IA générative et d'autres outils qui les alimentent permet aux fraudeurs de s'attaquer massivement à ces escroqueries, modifiant ainsi les mécanismes économiques de la fraude.
La formation des employés, comme toujours, est également cruciale pour lutter contre la menace des deep fakes, tout comme le développement de protocoles de vérification robustes.
En fin de compte, protéger votre entreprise contre les deep fakes générés par l'IA nécessite une approche multidimensionnelle : technologies de pointe, formation des employés, protocoles mentionnés précédemment et surveillance proactive. Mais en restant vigilantes et en mettant en œuvre des mesures de protection complètes, les entreprises peuvent atténuer les risques liés aux deep fakes et au moins se donner une chance de lutter contre les dangers émergents de l'ère numérique.
STAY CONNECTED


Receive the information you need when you need it through our world-leading magazines, newsletters and daily briefings.