Vai al contenuto

“Pronto, sono tua figlia”. È allarme per la nuova truffa telefonica. Tutta colpa dell’AI

Pubblicato il 13/04/2023 21:30

Quando una donna statunitense ha ricevuto la telefonata in cui la figlia (che, come vedremo, non era la figlia) diceva: “Mamma ho fatto un casino. Mi devi aiutare”, ha comprensibilmente raccolto l’appello della ragazza. Ma era una sofisticatissima cybertruffa. Ma andiamo con ordine. Abbiamo già scritto più volte dell’Intelligenza Artificiale e delle pericolosissime derive che essa potrebbe prendere, al punto che anche i paperoni della Silicon Valley cominciano a nutrire perplessità. E, in effetti, quello che stiamo per raccontare è perfettamente emblematico dei rischi che si corrono. La nuova frontiera delle truffe più sofisticate è la clonazione della voce umana, grazie appunto all’Intelligenza Artificiale, anzi all’uso distorto che se ne può fare. Solo alcuni anni fa ci sarebbe sembrata fantascienza. È tutto vero, invece e purtroppo. In sostanza, i criminali informatici stanno utilizzando l’intelligenza artificiale per replicare le voci di amici e parenti ed estorcere denaro. L’allarme è stato lanciato negli Stati Uniti, ma queste truffe, di norma, viaggiano in fretta e vengono poi replicate ovunque. Tecnicamente si chiama scam, e con questo termine non si intende una semplice truffa, bensì un’azione che “influisce negativamente sull’esito di un evento teoricamente positivo”. Ad esempio, è un fatto “positivo” ricevere una telefonata da un parente o da un amico. L’allarme è stato lanciato dalla Federal Trade Commission, l’agenzia governativa statunitense che ha il compito di promuovere la concorrenza e proteggere i consumatori dalle pratiche commerciali sleali e ingannevoli. (Continua a leggere dopo la foto)
>>> Attenti all’Iban swap, la nuova cybertruffa minaccia i conti correnti
>>> “Accadrà entro sette anni”. Intelligenza artificiale, lo studio choc. Ma per qualcuno è il “progresso”

clonazioni voci intelligenza artificiale truffe

Tutto ciò di cui il truffatore necessita per perpetrare il raggiro è una clip audio della voce del familiare o del soggetto da “clonare” e un programma di Intelligenza Artificiale capace di farlo. Basterebbe, dunque, salvare l’audio di una determinata persona mentre parla, anche per pochissimi secondi, magari in un video diffuso su un qualsiasi social network. Ecco, dunque, che torniamo al caso accaduto negli Stati Uniti, precisando altresì che sono già centinaia e centinaia le segnalazioni analoghe denunciate dalla Federal Trade Commission statunitense. La donna di cui parlavamo, residente a Scottsdale in Arizona, ha ricevuto la telefonata della – presunta – figlia quindicenne che, disperata, invocava il suo aiuto. Poi, al telefono un individuo, in carne ed ossa, ha detto ciò che riportiamo fedelmente, per come è stato raccontato dalla malcapitata alla stampa americana: “Ascolta, abbiamo tua figlia. Ecco cosa succede ora. Se chiami la polizia o lo dici a qualcuno, la imbottisco di droghe e la scarico da qualche parte in Messico”. E in lontananza, ancora la voce della ragazza che gridava “Aiutami mamma, aiutami, aiutami!” Il fatto, avvenuto nelle scorse settimane, sconcerta non poco: “Era chiaramente la sua voce – nelle parole della madre – Era la sua inflessione, era il modo in cui avrebbe pianto, non ho dubitato neppure per un secondo che fosse lei”. (Continua a leggere dopo la foto)
>>> “I poveri? Saranno curati da un’intelligenza artificiale”. La proposta choc che arriva dalla multinazionale

clonazioni voci intelligenza artificiale truffe

La clonazione della voce, come si legge sul sito specializzato Melablog, è una tecnologia che permette di creare una copia sintetica della voce di una persona, utilizzando algoritmi di intelligenza artificiale basati sull’apprendimento profondo, il cosiddetto Deep Learning. Il modello vocale è una rappresentazione matematica della voce che ne cattura le caratteristiche acustiche e linguistiche, come il timbro, l’intonazione, il ritmo e il vocabolario. L’Intelligenza Artificiale utilizza dei metodi di apprendimento profondo, come le reti neurali, per analizzare i dati audio e creare il modello vocale. Le reti neurali, per i profani, sono dei sistemi informatici che imitano il funzionamento del cervello umano. In maniera più semplice, ecco cosa accade: io parlo con la mia voce, e l’Intelligenza Artificiale la converte nella voce di qualcun altro. Per quanto riguarda le applicazioni capaci di tale operazione, l’elenco è già lungo, tra i più noti figurano Murf.ai, Beyondwords, Play.ht voice cloning, Resemble.ai, Reespecher.

Potrebbe interessarti anche: Funzionamento di ChatGpt: le risposte alle domande (ilparagone.it)

Hai scelto di non accettare i cookie

Tuttavia, la pubblicità mirata è un modo per sostenere il lavoro della nostra redazione, che si impegna a fornirvi ogni giorno informazioni di qualità. Accettando i cookie, sarai in grado di accedere ai contenuti e alle funzioni gratuite offerte dal nostro sito.

oppure