Deepfake vocali e intelligenza artificiale, MDC: le truffe dilagano (Foto Tara Winstead per Pexels)

I deepfake vocali hanno ingannato anche gli imprenditori, invitati a inviare denaro per conto del ministro della Difesa. Solo che il ministro della Difesa non era il vero Guido Crosetto ma una riproduzione della sua voce realizzata attraverso l’intelligenza artificiale. I più non riceveranno certo la chiamata di un ministro ma le truffe portate avanti attraverso l’IA e più in generale i deepfake sono un rischio che capita anche ai comuni mortali: molti anziani sono stati ingannati da voci clonate che imitavano familiari in difficoltà e chiedevano l’invio urgente di denaro. E in quel caso, presi dal panico, cadere nell’inganno è facilissimo.

Per questo il Movimento Difesa del Cittadino parte dagli ultimi fatti di cronaca per tornare a denunciare il rischio delle truffe tramite intelligenza artificiale, voci clonate e deepfake e la scarsa informazione ai cittadini su come difendersi con efficacia.

«La velocità con cui si diffondono le truffe basate su deepfake vocali e video, unita alla difficoltà per i cittadini di riconoscerle, rende urgente un’azione di informazione e sensibilizzazione massiccia – afferma l’avvocato Francesco Luongo, esperto del Movimento Difesa del Cittadino – È fondamentale che le istituzioni intervengano tempestivamente sia attraverso leggi più severe sia attraverso campagne educative».

Quando l’inganno passa per l’IA

I vari tentativi di truffe basate su deepfake vocali e video raccontati dalle cronache recenti dimostrano cosa può accadere quando la tecnologia viene usata per ingannare i cittadini. MDC lancia dunque un allarme per la crescente diffusione di truffe basate su deepfake vocali e video e sottolinea “la scarsa informazione disponibile per i cittadini su come difendersi efficacemente”.

L’associazione ha affrontato questo tema anche nella guida Consumatori e intelligenza artificiale, che  evidenzia una serie di strategie usate per ingannare gli utenti. E ripercorre in breve una decina di rischi e fonti di potenziali inganni, corredati da brevi consigli per difendersi. Fra questi ci sono appunto le chiamate automatizzate con voci realistiche. Utilizzando l’intelligenza artificiale i truffatori possono generare chiamate automatizzate che riproducono fedelmente le voci umane, talvolta imitando anche le voci di persone conosciute per ottenere informazioni personali o finanziarie.

Per compiere questo tipo di truffe, spiega MDC, vengono usati una serie di software avanzati, che permettono di creare cloni vocali realistici, software professionali per l’editing audio e altri usati anche nel gaming.

«Siamo consapevoli che queste tecnologie hanno anche usi legittimi – continua Luongo – ma è cruciale educare i cittadini sui rischi associati al loro uso improprio».

Come difendersi?

Alcuni accorgimenti rimandano all’adozione di un sano scetticismo nei confronti degli allarmi e delle telefonate che possono arrivare al cittadino. MDC raccomanda così di verificare l’identità del chiamante e in caso di telefonate o messaggi sospetti porre domande personalizzate che solo la persona reale potrebbe conoscere; di interrompere immediatamente la conversazione se si nutrono dubbi sulla veridicità della comunicazione; di diffidare delle richieste urgenti e non inviare mai denaro o fornire informazioni sensibili senza aver verificato accuratamente. Importante è anche avvisare e sensibilizzare le persone più vulnerabili come anziani e fragili sui rischi associati alle truffe AI.

L’associazione chiede di migliorare la legislazione contro le truffe basate sull’intelligenza artificiale. “È necessario – conclude – prevedere sanzioni severe contro chi utilizza queste tecnologie a scopo fraudolento”.


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)