Smascherare la minaccia: come i deepfake mettono a repentaglio la sicurezza aziendale

Premium Content

18 luglio 2024

Intelligenza artificiale (IA)

Nell'attuale era digitale, il panorama delle minacce alla sicurezza informatica si è evoluto radicalmente, con le minacce informatiche generate dall'intelligenza artificiale che stanno emergendo come una preoccupazione significativa per le aziende. Queste minacce, alimentate dall'intelligenza artificiale e dal machine learning, sono in grado di adattarsi, apprendere ed eseguire attacchi con una sofisticatezza ed efficienza senza precedenti.

Ad esempio (e un caso a cui i leader del settore edile e dei trasporti in tutto il mondo devono iniziare a prestare molta attenzione) il gruppo di ingegneria britannico Arup ha perso circa 25 milioni di dollari all'inizio del 2024 dopo che alcuni truffatori hanno utilizzato dei "deep fake" manipolati dall'intelligenza artificiale per spacciarsi per il direttore finanziario del gruppo e richiedere trasferimenti da un dipendente a conti bancari a Hong Kong (secondo il Financial Times).

In sostanza, come riportato dalla polizia di Hong Kong, un membro dello staff ha ricevuto un messaggio che si spacciava per il CFO di Arup, con sede nel Regno Unito, riguardante una "transazione riservata". Dopo una videoconferenza con il falso CFO e altri dipendenti generati dall'intelligenza artificiale, il membro dello staff ha effettuato diverse transazioni su cinque conti bancari di Hong Kong, prima di scoprire la frode.

Joel Dandrea

Falsificazione digitale iperrealistica

Con il rapido progresso tecnologico, l'ascesa dei deep fake generati dall'intelligenza artificiale rappresenta una sfida significativa per le aziende di tutto il mondo. I deep fake, che consistono in falsificazioni digitali iperrealistiche basate sull'intelligenza artificiale, possono manipolare audio, video e immagini, facendo apparire gli individui come se stessero dicendo o facendo cose in realtà in realtà. Con l'aumentare della sofisticatezza e dell'accessibilità della tecnologia alla base dei deep fake, la minaccia alla sicurezza aziendale non fa che aumentare.

Sebbene i CFO al momento non prestino attenzione a tali incidenti, la situazione cambierà con la loro maggiore frequenza. In qualità di custodi delle chiavi finanziarie di un'azienda – e quindi potenziali bersagli di furti d'identità da parte di truffatori intraprendenti – garantire la consapevolezza è un primo passo fondamentale. L'intero staff deve essere consapevole di minacce come la potenziale furto d'identità di dirigenti e di come tali frodi potrebbero avere un impatto sui processi aziendali critici.

Possibilità di combattere

Per proteggersi dai deep fake, le aziende devono rafforzare i propri framework di sicurezza informatica. L'implementazione di sistemi avanzati di rilevamento delle minacce che utilizzano il machine learning può aiutare a identificare i deep fake analizzando le incongruenze in video, audio e immagini. Questi sistemi possono segnalare contenuti sospetti per ulteriori indagini. Inoltre, è probabile che le aziende investiranno presto in metodi di autenticazione biometrica, come sistemi di riconoscimento vocale e facciale, progettati per rilevare anomalie indicative di deep fake.

Sebbene le frodi informatiche non siano una novità, le aziende del settore edile e dei trasporti sono state tradizionalmente più lente ad adattarsi, in molti casi persino resistenti. Detto questo, ora sarebbe il momento giusto per i CFO di acquisire la massima consapevolezza possibile e iniziare a esaminare più attentamente i controlli antifrode in atto. I responsabili finanziari dovrebbero rivedere molti dei loro processi aziendali che potrebbero essere vulnerabili ad attacchi deep fake e/o social media. L'emergere dell'intelligenza artificiale generativa e di altri strumenti che le alimentano consente ai truffatori di scalare tali truffe su larga scala, alterando di fatto l'economia delle frodi.

Come sempre, la formazione dei dipendenti è fondamentale per contrastare la minaccia dei deep fake, così come lo è lo sviluppo di solidi protocolli di verifica.

In definitiva, proteggere la propria azienda dai deep fake generati dall'intelligenza artificiale richiede un approccio multiforme, che coinvolga tecnologie avanzate, formazione dei dipendenti, i protocolli sopra menzionati e un monitoraggio proattivo. Ma rimanendo vigili e implementando misure di sicurezza complete, le aziende possono mitigare i rischi posti dai deep fake e almeno coltivare una possibilità di combattere i pericoli emergenti dell'era digitale.

STAY CONNECTED

Receive the information you need when you need it through our world-leading magazines, newsletters and daily briefings.

Sign up