Deepfake: VIP virtuali propongono investimenti fantastici. La Banca d’Italia lancia l’allarme: truffe virtuali aumentate del 700%

Un personaggio famoso e di successo ti propone un investimento davvero vantaggioso.  Automaticamente la sua stessa faccia ed i generosi consigli su quanti guadagni puoi realizzare facendo quello che ha fatto lui suscita un grande affidamento. Peccato che il VIP in questione non ne sappia proprio nulla di tutto questo ed anzi non immagini nemmeno di essere coinvolto in affari di tal genere. Infatti, non si tratta di affari ma truffe ed il VIP di turno è solo un volto virtuale, parlante, creato dall’intelligenza artificiale.

A questo proposito la Banca d’Italia ha lanciato un avviso urgente, denunciando la presenza online di videomessaggi che utilizzano in modo ingannevole immagini e voci di importanti figure del settore finanziario, inclusi rappresentanti dell’istituto stesso, senza alcuna autorizzazione. Il fenomeno va sotto il nome di deepfake, ovvero contenuti audio e video estremamente realistici, ma falsi, generati artificialmente da intelligenza artificiale. Ovviamente l’intento è quello di raggirare gli utenti di internet. Non è un’attività da hacker esperti, poiché grazie all’avanzamento dell’intelligenza artificiale generativa è possibile per chiunque creare deepfake: oggi basta un software scaricabile da internet per riuscire a fabbricare con pochi passaggi una realtà inesistente. Basta dire che a livello globale, gli attacchi deepfake nel settore fintech sono cresciuti del 700% nell’ultimo anno.

Un fenomeno che ha già creato grande allarme negli USA: L’Internet Crime Complaint Center dell’FBI ha registrato nel 2023 un incremento del 22% di denunce per tentativi di truffa legati all’AI, rispetto all’anno precedente, mentre il Center for Financial Services di Deloitte ha previsto che i deepfake possano causare una notevole escalation delle truffe finanziarie negli Stati Uniti, stimando che potrebbero salire fino a 40 miliardi di dollari entro il 2027, partendo dai 12,3 miliardi di dollari registrati nel 2023, con un tasso di crescita annuo del 32%.

Numeri allarmanti anche in EuropaL’incremento di casi di deepfake in Europa è inquietante: l’impatto significativo dell’AI generativa in questo campo ha fatto registrare un aumento del 780% nel 2023. In Italia, questi tentativi di truffa hanno rappresentato il 6,8% del totale europeo.

Il contrasto del fenomeno: Le tecniche utilizzate dai malfattori sono certamente sofisticate ma, come in tutti i casi di truffa, l’avidità delle vittime e l’illusione di realizzare facili guadagni forniscono un formidabile contributo al successo del raggiro. Le persone versano una certa somma convinte di vedere moltiplicati gli interessi in misura sbalorditiva, così come garantisce il (virtuale) VIP e poi vedono volatilizzarsi i propri soldi. Spesso dietro la manifestazione di interesse l’utente riceve assistenza e supporto, naturalmente con la sollecitazione a versare subito il quantum. Ovviamente tutto questo richiede una efficiente struttura organizzativa di regola gestita da vere e proprie organizzazioni criminali radicate a livello internazionale. Per contro, le indagini sono complicate e spesso anche quando le truffe vengono scoperte è praticamente impossibile recuperare i capitali sottratti ai malcapitati.

Il nuovo Regolamento Europeo: Il 21 maggio 2024 il Consiglio dell’UE ha approvato, l’Artificial intelligence (AI) act, cioè la cosiddetta legge sull’intelligenza artificiale, volta ad armonizzare le norme in materia con un approccio “basato sul rischio”: ovvero, maggiore è il rischio di causare danni alla società, più severe saranno le regole. La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE da parte di attori sia pubblici che privati. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge sull’IA si applica solo ad ambiti soggetti al diritto dell’UE e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.

La classificazione in base al rischio:  La nuova legge classifica diversi tipi di intelligenza artificiale in base al rischio. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di IA ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo comportamentale e il punteggio sociale saranno banditi dall’UE perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l’uso dell’intelligenza artificiale per politiche predittive basate sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.