Intelligenza artificiale: con l'IA, possiamo ancora fidarci delle nostre orecchie?

Vai ai contenuti

Intelligenza artificiale: con l'IA, possiamo ancora fidarci delle nostre orecchie?

3D.A. CLOUD Internet Provider FIBRA FTTH VDSL VoIP Kaspersky Antivirus WatchGuard Antivirus SPID PEC Firma_Digitale Certificati SSL Brescia Concesio
Intelligenza artificiale: con l'IA, possiamo ancora fidarci delle nostre orecchie?

Nuove truffe telefoniche che utilizzano strumenti di replica vocale AI - facilmente disponibili online - stanno preoccupando le autorità statunitensi.





Il più grande pericolo delle IA, affermano gli esperti, è la loro capacità di cancellare quasi il confine tra realtà e finzione, fornendo ai criminali strumenti efficaci e poco costosi.

La voce di sua figlia ei suoi singhiozzi l'hanno turbata quando un uomo l'ha chiamata chiedendo un riscatto.
Ma le intonazioni sono state riprodotte alla perfezione da un'intelligenza artificiale (AI) per un tentativo di truffa, argomento di preoccupazione che sta emergendo con questa tecnologia in piena espansione.

Il più grande pericolo delle IA, affermano gli esperti, è la loro capacità di cancellare quasi il confine tra realtà e finzione, fornendo ai criminali strumenti efficaci e poco costosi.

"Aiutami, mamma, per favore aiutami", ha sentito al telefono Jennifer DeStefano, una madre che vive in Arizona.

Questa voce, poi, è “al 100%” convinta che sia quella, in grande angoscia, della figlia quindicenne, andata a sciare.

"Era totalmente la sua voce, il modo in cui avrebbe pianto", ha detto la madre a una stazione televisiva locale ad aprile.

"Non ho dubitato per un momento che potesse non essere lei."

Al capolinea, il truffatore che poi parla, da un numero sconosciuto, pretende un milione di dollari.

La sequenza, che si è rapidamente conclusa quando Jennifer DeStefano è riuscita a raggiungere la figlia, è ora oggetto di indagine e ha evidenziato la potenziale appropriazione indebita di IA da parte dei cybercriminali.


"Deepfake avvincenti"
"La replica vocale AI, ora quasi indistinguibile dal linguaggio umano, consente a malintenzionati come i truffatori di estrarre in modo più efficace informazioni e denaro dalle vittime", ha detto ad AFP Wasim Khaled, CEO di Blackbird.AI.

Molte applicazioni, molte delle quali gratuite e disponibili online, consentono all'intelligenza artificiale di replicare la voce reale di una persona da una breve registrazione.
Questo può essere facilmente estratto dai contenuti pubblicati online.

“Con un breve campione audio, un clone vocale AI può essere utilizzato per lasciare messaggi e capsule audio. Può anche essere utilizzato come modificatore vocale dal vivo durante le chiamate", spiega Wasim Khaled.

"I truffatori usano vari accenti e generi, o addirittura imitano il modo di parlare dei tuoi parenti", aggiunge. Questa tecnologia “consente la creazione di deepfake convincenti”.

Secondo un sondaggio condotto su 7.000 persone in nove paesi, inclusi gli Stati Uniti, una persona su quattro è stata oggetto di un tentativo di truffa vocale replicata dall'intelligenza artificiale o conosce qualcuno che lo ha fatto.

Il 70% degli intervistati ha affermato di non essere sicuro di poter distinguere tra una voce reale e una voce clonata, secondo questo sondaggio pubblicato il mese scorso da McAfee Labs.

Le autorità statunitensi hanno recentemente avvertito della crescente popolarità della "truffa dei nonni".

"Ricevi una chiamata, una voce in preda al panico in linea, è tuo nipote. Dice di essere in grossi guai, ha avuto un incidente d'auto ed è finito in carcere. Ma puoi aiutare inviando denaro ", ha avvertito la US Consumer Protection Agency (FTC).

Nei commenti sotto questo avviso FTC, diversi anziani hanno affermato di essere stati ingannati in questo modo.

Vulnerabilità
Un nonno vittimizzato era stato così convinto che si mise a raccogliere fondi, anche considerando di ri-ipotecare la sua casa, prima che lo stratagemma fosse scoperto.

La facilità con cui ora possiamo replicare artificialmente una voce significa che "quasi tutti online sono vulnerabili", ha affermato AFP Hany Farid, professore presso la UC Berkeley School of Information.

"Queste truffe stanno guadagnando terreno"

All'inizio di quest'anno, la startup ElevenLabs ha dovuto ammettere che era possibile utilizzare in modo improprio il suo strumento di replica vocale AI, dopo che gli utenti hanno pubblicato un deepfake online dell'attrice Emma Watson che leggeva "Mein Kampf".

"Ci stiamo rapidamente avvicinando al punto in cui non possiamo più fidarci dei contenuti su Internet e in cui dovremo utilizzare le nuove tecnologie per garantire che la persona con cui pensiamo di parlare (al telefono) sia davvero la persona a cui parliamo, "
conclude Gal Tal-Hochberg, dirigente della società di investimenti tecnologici Te



3D.A.
Un Solo Fornitore
3D.A. di Domeneghini Angelo - Via G. Zanardelli, 80/82 - cap. 25062 Concesio (Bs) - Tel +39 030 2008860 -
Fax 030 20 60 925 - P.I: 03307780175
Torna ai contenuti