L’intelligenza artificiale usata per truffare gli anziani

Pubblicato il 18 Marzo 2023 in da redazione grey-panthers
quota 100 pensione

La telefonata riproduce la voce di un familiare in difficoltà. Negli Stati Uniti oltre 11 milioni di dollari sottratti con false richieste di aiuto nel 2022

Il nipote chiama al telefono la nonna e le dice di essere in carcere, senza portafoglio per poter pagare una cauzione e con la necessità di dover far fronte a una multa o delle spese. Ha bisogno di soldi subito e spesso, con una tale richiesta di aiuto, viene accontentato. Questa è solo una delle tante formule che i truffatori oggi utilizzano per fare soldi ai danni delle persone anziane, ma negli Stati Uniti il fenomeno sta coinvolgendo sempre più l’Intelligenza Artificiale, che riproduce perfettamente la voce dei familiari e dei propri cari. Con questo metodo, evidenzia in un suo articolo il Washington Post, già migliaia di dollari sono stati sottratti a persone inconsapevoli che una tale truffa sia possibile. Presto questi casi potrebbero presentarsi anche in Europa e in altri contesti geografici.

Inganno perfetto

Molte volte è difficile convincere le vittime anche solo dell’essere state ingannate. La voce riprodotta dalla tecnologia AI è praticamente identica a quella del familiare in carne e ossa. Negli Stati Uniti nel 2022 le truffe sono state tra i metodi illegali più diffusi per fare soldi e ne sono state colpite oltre 36mila persone (sulla base di un pari numero di segnalazioni), dove i criminali si fingevano amici e conoscenti. La Federal Trade Commission riporta anche che oltre cinquemila di questi casi hanno avuto luogo attraverso la linea telefonica.

La perdita economica complessiva per le vittime ammonta a 11 milioni di dollari. Oggi basta un campione della voce, anche di pochi secondi, per riprodurla e farle dire quel che si vuole, grazie all’Intelligenza Artificiale, e perfino per la polizia diventa sempre più difficile riuscire a distinguere un fake dall’originale. Un problema che potrebbe in futuro presentarsi anche a fronte delle intercettazioni telefoniche in fase di indagine. Un professore dell’Università della California, Hany Farid, che insegna materie come Digital Forensics, ne parla in toni ancora più preoccupanti, perché lo sviluppo tecnologico in tal senso rischia di alterare completamente la verità delle cose e il come possano essere interpretate. “In questo modo si può fingere di tutto, far credere di tutto. Di fatto una tempesta perfetta”, ammette.

Impatto emotivo e condivisione dei dati

Ascoltare la voce dei propri cari in pericolo ha anche un fortissimo impatto emotivo per gli anziani tanto che, oltre al pericolo della truffa, vi è anche quello di subire un forte contraccolpo alla salute dovuto all’ansia e alla preoccupazione. I social network, in particolare TikTok e Instagram, dove è più facile far ascoltare al pubblico la propria voce (ma potrebbe valere anche per i messaggi vocali di Whatsapp), permettono a chiunque di sentirla, inclusi gli sconosciuti. In questo modo non vi è praticamente limite al numero di vittime potenzialmente raggiungibili.

Facilità di accesso

I software per realizzare tutto questo sono ormai sempre più accessibili, tanto che un sintetizzatore della voce può avere un costo che va dai 5 ai 330 dollari di abbonamento mensile. In molti altri casi può essere addirittura gratuito. Le garanzie e le salvaguardie poste dai proprietari delle tecnologie stesse non sono state fino a questo momento capaci di arginare il fenomeno delle truffe. Oltre la difficoltà per le autorità di distinguere le voci riprodotte artificialmente da quelle autentiche, anche la testimonianza delle vittime in genere non è in grado di fornire molti elementi, se non quello di una perdita effettiva di denaro a beneficio di soggetti che sanno abilmente e in brevissimo tempo far sparire le proprie tracce.

Fonte: Corriere della Sera