Se ricevi questo messaggio da tuo figlio non devi assolutamente rispondere: ti rubano tutto
Attezione se ricevi questo messaggio da tuo figlio, non rispondere potrebbero rubarti dei soldi: i dettagli
Il caso della signora Maria Grazia Abis, una pensionata di 70 anni di Sardara, comune di poco più di 3mila abitanti situato al centro della Sardegna è finito al centro dell’attenzione mediatica per essere stata truffata con un messaggio fake.
L’anziana signora ha vissuto davvero un’esperienza sconvolgente, quando credendo di rispondere ad una telefonata della figlia, è rimasta vittima di una sofisticata truffa basata sul voice cloning.
A ingannare la donna è stata proprio la finta voce della ragazza che la avvertiva della linea disturbata e che è proseguita con dei messaggi vocali in cui le diceva di avere necessità di soldi e in cui le chiedeva una cifra ben precisa.
Maria Grazia Abis solo dopo aver chiamato il numero della figlia si è accorta dell’inganno, alcuni truffatori infatti, avevano clonato la voce della persona per lei più cara al mondo, facendo leva sui suoi sentimenti, estorcendole del denaro. Questo purtroppo è solo uno dei tanti casi che si stanno verificando.
Truffa con la voce clonata: ecco in cosa consiste
Il fenomeno del voice cloning, ovvero la clonazione vocale, si basa sull’ausilio di avanzati software di intelligenza artificiale come Murf.ai, PlayHT e Vidnoz AI, in grado di emulare le caratteristiche timbriche e ritmiche di una voce umana partendo da brevi campioni audio. Questi strumenti, accessibili a tutti, sono davvero preoccupanti perchè non fanno altro che facilitare la creazione di messaggi audio estremamente convincenti utilizzati per fini fraudolenti.
Altri approcci, indubbiamente più sofisticati, si basano sul vero e proprio “machine learning model” e offrono risultati decisamente più verosimili. Anche in questo caso si utilizzano vasti database di dati vocali, ma si fornisce al sistema un modello e lo si addestra a parlare in maniera simile al parlante, replicando anche la prosodia e le inflessioni regionali, ad esempio. In questo caso diventa essenziale la qualità e la durata degli audio che si hanno a disposizione per la creazione “ex novo” di un vero e proprio modello vocale
La parola dell’esperto di sicurezza informatica
Stefano Zanero, esperto di sicurezza informatico, ha ribadito con forza l’esigenza di aumentare la consapevolezza sui rischi legati all’intelligenza artificiale e al voice cloning, invitando a prestare attenzione ai segnali di allarme e a diffidare di richieste di denaro improvvise, anche se provenienti da familiari: “L’intelligenza artificiale ci darà dei dispiaceri – ha detto, come riporta Today.it
Zanero, inoltre, ha riferito che purtroppo tali truffe non sono create da singoli, ma da veri e propri gruppi criminali e da una filiera che ormai è una vera e propria industria: “Prima di attaccare una vittima bisogna fare un minimo di ‘scouting’, capirne le abitudini, il contesto familiare e i punti deboli, ma parliamo di gruppi criminali preparati, di naïf qui non c’è nulla – osserva Zanero – questo però è paradossalmente un vantaggio per capire i segnali di allarme. I truffatori acquistano ‘pacchetti’ pronti sul dark web e gli schemi di queste truffe sono spesso gli stessi, bisogna solo imparare a riconoscerli”.