L’IA – nuova frontiere della frode assicurativa e del contrasto al fenomeno criminale

a cura del Dott. Fabio Mongile

Esistono due tipi di frode assicurativa: la frode opportunistica e la frode professionale. Il secondo tipo è commesso da gruppi organizzati e sebbene la frode organizzata sia meno frequente delle frodi opportunistiche, la maggior parte delle perdite finanziarie è dovuta proprio ai gruppi organizzati”. [1] Il ramo assicurativo maggiormente “aggredito” dalle frodi è sicuramente il settore auto.

Come può l’intelligenza artificiale contrastare le frodi assicurative?Un quesito interessante per gli addetti al settore, sia in campo criminologico che operativo. Alcune deglistrumenti IAsono in uso già oggi dalle più grandi imprese di assicurazione in tutto il mondo e sono le seguenti:

  • Machine Learning (ML): addestrare algoritmi su grandi quantitativi di dati che includano sia i casi di frode acclarati che le richieste legittime, al fine di imparare a riconoscere schemi di comportamento sospetti. [2]Analizzando le variabili ricorrenti nei sinistri fraudolenti, l’IA potrebbe assegnare degli score di frode che permetterebbero un’assegnazione dell’incarico all’investigatore umano;
  • Analisi delle connessioni: Spesso le frodi sono perpetrate attraverso reti complesse. Non necessariamente si deve parlare di organizzazioni criminali. Spesso sono singoli soggetti o singoli professionisti (contraenti, avvocati, medici, carrozzerie o agenzie infortunistiche) che operano in maniera recidiva e si trovano ad interconnettersi con soggetti non “professionisti” nel panorama della frode. L’IA individua più facilmente queste connessioni, analizzandone le relazioni e individuando cluster di attività anomale;
  • Analisi di immagini e IAdetector: L’IA sarebbe in grado di analizzare le immagini dei veicoli incidentati o degli immobili danneggiati stimandone i danni, ma permetterebbe anche di confrontare le foto prodotte con quelle già presenti negli archivi per rilevare incongruenze, manomissioni o danni già esistenti. Inoltre, è fondamentale oggi uno strumento che individua eventuali manipolazioni di immagini con IA;
  • Natural Language Processing (NLP): Questa tecnologia permette all’IA di analizzare documenti non strutturati, come denunce, dichiarazioni testimoniali, referti medici estraendo informazioni chiave e confrontandole tra loro per individuare pattern sospetti. Oggi, la tecnologia OCR (Optical Character Recognition) è altamente all’avanguardia rispetto al passato, riducendo quasi a zero la percentuale di errore nella lettura del testo. Questo strumento è indispensabile per poter scandagliare grossissime moli di testo in pochi secondi. Operazione per la quale fino a ieri un umano avrebbe impiegato giorni.

 

Ovviamente queste tecniche hanno dei limiti sia di natura legaleche etica, oltre ovviamente dei limiti operativi che rendono indispensabile la supervisione umana.

 

Limiti legali:

  • Dal punto di vista legale ovviamente il primo limite è il GDPR (General Data Protection Regulation).È necessario che l’IA garantiscaun trattamento dei dati sanitari, finanziari e biometrici siano trattati in modo lecito, trasparente e per scopi ben definiti. L’uso di sistemi di IA che incrociano grandi quantità di dati provenienti da fonti diverse (quali i fascicoli sanitari, gli incartamenti dei sinistri, le OPEN SOURCE INTELLIGENCE o le black-box installate in auto) richiedono una particolareattenzione;
  • BIAS: Gli algoritmi vengono addestrati su dati storici che possono riflettere e amplificare i pregiudizi umani o socioeconomici preesistenti. Ad esempio, se i dati di addestramento mostrano che in determinate aree geografiche o fasce demografiche si sono verificate più frodi, l’algoritmo potrebbe erroneamente etichettare come “ad alto rischio” soggetti appartenenti a quelle categorie, anche laddove la richiesta sia legittima.Ciò rischierebbe di essere altamente discriminatorio;
  • Trasparenza: Non è sempre possibile spiegare in modo chiaro e comprensibile come l’algoritmo sia giunto a una determinata decisione e quindi come abbia etichettato un sinistro come “sospetto“. Ciò contrasterebbe con il diritto dell’interessato di conoscere la motivazione di una decisione che lo riguarda, soprattutto se a lui sfavorevole. L’AI Act[3] mira a stabilire requisiti di “spiegabilità” per i sistemi ad alto rischio, come ad esempio quelli usati nel settore assicurativo;
  • Responsabilità giuridica: L’IA, non avendo personalità giuridica,in caso di errore o danno causato da una decisione automatizzata, non può essere sanzionate e la responsabilità legale ricadrebbe sullo sviluppatore o sull’azienda che ha implementato il sistema o, eventualmente, su chi lo ha utilizzato. Sul punto c’è ancora un dibattito dottrinale, non accompagnato dalla giurisprudenza.

 

Limiti tecnici e operativi:

  • Qualità e completezza dei dati: L’efficacia di qualsiasi sistema di IA dipende dalla qualità dei dati su cui viene addestrato. Dati incompleti, inaccurati o obsoleti potrebbero portare a previsioni errate, con il rischio di falsi positivi. Il quantitativo di dati disponibile inoltre è limitato, in quanto ad oggi non esiste (fortunatamente) una IA in grado di accedere a qualunque fonte online ed è qui che l’apporto dell’investigatore (umano) è indispensabile al fine di scoprire, selezionare e interpretare le informazioni raccolte. Due rischi tra tutti sono senza dubbio il rischio di omonimia con conseguente distorsione della ricerca da una parte, ma soprattutto evitare il rischio di “dossieraggio. In altri termini, ogni indagine investigativa deve soggiacere ai principi di pertinenza, rilevanza e non eccedenza e solo la valutazione umana dell’investigatore può scongiurare questo rischio.
  • Evoluzione delle frodi: I truffatori possono adattare le loro tecniche per aggirare i sistemi di rilevamento basati sull’IA che può divenire un’arma a doppio taglio, poiché anche i criminali possono usarla per creare documenti falsi più credibili, manipolare i dati o simulare comportamenti “normali“;
  • Overfitting“:quando un algoritmo è troppo “adattato” ai dati di addestramento non riesce a generalizzare correttamente nuovi dati. Di conseguenza, il sistema potrebbe essere molto preciso nel rilevare vecchi schemi di frode, ma totalmente inefficace nel riconoscerne di nuovi e anche qui la valutazione umana diventerebbe fondamentale e imprescindibile.

 

Come abbiamo avuto modo di appurare, le frodi sono in continua evoluzione el’IA, essendo a disposizione di chiunque, può costituire una nuova frontiera anche per i truffatori professionisti. Alcune delle tecniche che potrebbero o che già usano i truffatori oggi sono:

  • Creazione di documenti falsi: Gli strumenti di IA generativa possono creare con facilità documenti contraffatti (come polizze, certificati medici, ricevute) spesso difficili da distinguere dagli originali;
  • Manipolazione di prove digitali: Grazie all’IA è possibile alterare immagini, video e registrazioni audioper simulare incidenti, danni inesistenti,In potenza sarebbe possibile modificare una foto per mostrare un danno maggiore o creare un’intera scena di un incidente che non è mai avvenuto. Ovviamente questo è lo scenario più estremo e la tecnologia open source non è ancora matura per rendere indistinguibile un’immagine creata con l’intelligenza artificiale;
  • False identità e siti web: Una delle piaghedelle imprese di assicurazioni è il fenomeno del ghost broking“.Siti web ingannevoli e app fraudolente ma credibili per vendere polizze assicurative inesistenti a prezzi molto bassi, spesso sfruttando il nome di compagnie reali. Questa da sempre è stata un’operazione complessa per i truffatori che oggi grazie all’IA possono compiere in pochi semplici passaggi;
  • Generazione di testimonianze credibili: Qualunque buon investigatore conosce le CBCA (Criteria-Based Content Analysis), ovvero l’Analisi del Contenuto Basata su Criteri. Le storie inventate mancano spesso di una seria di pattern che la renderebbero credibile. I truffatori possono utilizzare l’IA per generare racconti dettagliati e coerenti. L’IA può aiutare a creare testimonianze multiple che sembrano provenire da persone diverse, ma che in realtà sono tutte basate su un’unica storia inventata. Questo renderebbe più difficileidentificare le discrepanze ed è evidente che solo un’intervista cognitiva ben articolata e svolta da investigatore umano può individuare la fallacia narrativa di un testimone falso.

 

Conclusione

L’intelligenza artificiale rappresenta uno strumento potentissimo e sempre più cruciale per le compagnie assicurative nella lotta contro le frodi. L’implementazione di queste tecnologie porterà sicuramente a una maggiore efficienza operativa e a una riduzione delle perdite finanziarie.Tuttavia, l’adozione dell’IA in questo settore non è priva di sfide significative. Oltre ai limiti tecnici legati alla qualità dei dati e all’evoluzione delle frodi, esistono questioni legali ed etiche cruciali oltre che dei limiti operativi. Inoltre, questa stessa tecnologia può essere sfruttata dai truffatori più abili, pareggiando così le forze in campoe trasformando la lotta in una “corsa agli armamenti tecnologici”.

L’IA è un alleato indispensabile, ma non la soluzione regina. Il suo successo dipende da un’integrazione bilanciata tra la potenza analitica dei sistemi automatizzati e l’esperienza e il giudizio degli investigatori umani. Un approccio ibrido, che sfrutta l’efficienza dell’IA per l’identificazione preliminare delle anomalie e si affida all’intelligenza umana per la valutazione finale e l’indagine, è l’unica via per contrastare efficacemente e in modo etico le frodi assicurative, adattandosi al contempo alle continue evoluzioni di questo fenomeno criminale.

[1]Y. S. Chen, C. M. Chiu. “A Hybrid System for Auto Insurance Fraud Detection Using Unsupervised and Supervised Learning”. Expert Systems with Applications, 2019.

 

[2] Gazzetta Ufficiale dell’Unione europea 127 del 23 maggio 2018

[3] Unione Europea – Regolamento sull’Intelligenza Artificiale (AI Act) 13 giugno 2024