SPECIALE. Francesco Luongo, MDC: Intelligenza artificiale, rafforzare la consapevolezza dei consumatori (Foto Tara Winstead per Pexels)

Truffe vocali automatizzate, deepfake con video e immagini falsificati sfruttati per architettare frodi finanziarie, phishing personalizzato: sono diversi gli esempi di truffe alimentate dal ricorso all’Intelligenza artificiale. L’IA è una rivoluzione che, oltre ai rischi, ha anche potenzialità di applicazione che promettono un impatto positivo sui cittadini.

 

 

Parla Francesco Luongo, MDC

Su opportunità e rischi dell’intelligenza artificiale, e sulla consapevolezza effettiva dei consumatori nel confronti dell’IA, abbiamo sentito il parere dell’avvocato Francesco Luongo, portavoce ed esperto del Movimento Difesa del Cittadino (MDC).

Quanto ne sanno oggi i consumatori di Intelligenza artificiale?

“Secondo l’indagine OCSE PIAAC, un terzo degli adulti italiani possiede competenze linguistiche e matematiche insufficienti, e questa carenza si riflette anche sulla limitata alfabetizzazione digitale. Di conseguenza, molti consumatori hanno una conoscenza superficiale dell’Intelligenza artificiale (IA), spesso legata all’utilizzo quotidiano di assistenti vocali o raccomandazioni online. Molti ignorano il funzionamento di queste tecnologie e i potenziali rischi o benefici che comportano. Ciò rende essenziale un maggiore impegno nell’educazione e nella sensibilizzazione del pubblico, così da favorire scelte consapevoli nell’interazione con strumenti basati su IA”.

Ci sono i casi di deepfake o truffe realizzate attraverso sistemi di IA.

Luongo si sofferma su alcuni casi che già si sono verificati.

“L’IA ha già alimentato diversi tipi di truffe. Tra i casi concreti denunciati eccone solo alcuni:

Truffe vocali automatizzate: sistemi di IA in grado di replicare la voce di una persona per estorcere denaro. Ad esempio, in Germania un manager ha trasferito decine di migliaia di euro pensando di parlare al telefono con il suo superiore, la cui voce era stata imitata tramite IA.

Deepfake per frodi finanziarie: video o immagini falsificati che simulano persone di fiducia, come rappresentanti di banche o aziende, utilizzati per convincere le vittime a fornire dati sensibili o autorizzare transazioni.

Phishing personalizzato con IA: algoritmi capaci di analizzare dati pubblici delle vittime per generare e-mail o messaggi ingannevoli estremamente realistici e su misura, aumentando le probabilità di successo degli attacchi.

Questi esempi dimostrano come l’IA possa rendere le frodi più sofisticate e difficili da individuare, evidenziando la necessità di rafforzare la consapevolezza e la protezione dei consumatori”.

 

Per leggere l’intervista integrale, clicca QUI.

Leggi anche: L’intelligenza artificiale è già fra noi (e tante sono le sfide che pone)

 

di Help Consumatori in collaborazione con Consumers’ Forum


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)