Intelligenza artificiale, Garante Privacy: tracciare un “limite di sostenibilità, colonne d’Ercole da non varcare” (Foto di Kohji Asakawa da Pixabay)

Intelligenza artificiale, Garante Privacy: tracciare un “limite di sostenibilità, colonne d’Ercole da non varcare”

Il 2023 è stato l’anno della diffusione massiva dell’Intelligenza artificiale. L’AI è al centro della relazione del presidente del Garante Privacy che ne ricorda uso, sfide, applicazioni e chiede di tracciare “un limite di sostenibilità, delle colonne d’Ercole da non varcare”

Il 2023 è stato l’anno della diffusione massiva dell’Intelligenza artificiale, che “sarà sempre più elemento costitutivo del nostro quotidiano, con effetti della cui portata non siamo, forse, del tutto consapevoli”. Ampio spazio all’Intelligenza artificiale assume la relazione annuale del Garante Privacy di quest’anno, che ricorda come questa innovazione sia entrata a far parte della vita quotidiana con molte attività, da quelle giornaliere all’applicazione alle neuroscienze all’impiego dell’IA nelle guerre e a Gaza. IA che per la sua espansione richiede però di tracciare “un limite di sostenibilità, delle colonne d’Ercole da non varcare”.

Nell’attività del Garante Privacy relativa al 2023 ci sono diversi interventi relativi all’Intelligenza Artificiale. Come ricorda una sintesi dell’Autorità, dopo un iniziale blocco di ChatGPT, per raccolta illecita di dati personali e assenza di sistemi per la verifica dell’età dei minori, la piattaforma è stata riaperta garantendo più trasparenza e più diritti agli utenti. Nel frattempo è stata costituita una task force ad hoc a livello europeo e sono in corso ulteriori verifiche dell’Autorità. Il Garante ha imposto lo stop anche al chatbot Replika: troppi i rischi per i minori e le persone emotivamente fragili. E ha avviato un’istruttoria su Sora, il modello di intelligenza artificiale che crea brevi video da poche righe di testo.

Intelligenza artificiale, dall’AI Act dell’Europa alle sfide attuali e future

All’inizio della sua relazione il Garante Privacy ricorda l’approvazione da parte dell’Unione europea dell’Ai Act, «la prima disciplina al mondo, di taglio organico e non settoriale, dell’intelligenza artificiale».

L’Ai Act, ha detto Stanzione, rappresenta «assieme a ciò che fu il GDPR otto anni fa, il tentativo più avanzato dell’Europa di delineare una strategia antropocentrica di governo della tecnica».

«Il 2023 – ha detto Stanzione – è stato l’anno della diffusione massiva dell’intelligenza artificiale, così estesa e veloce da aver addirittura indotto, nel marzo di quell’anno, mille esponenti delle big tech a suggerire, con una lettera aperta, una moratoria sullo sviluppo di questa neotecnologia, ritenuto eccessivamente rapido».

Il Garante ha ricordato ad esempio l’uso dell’intelligenza artificiale da parte dei giovani per fare i compiti e il fatto che “due studenti su tre avrebbero preparato l’esame di maturità ricorrendo a Chat Gpt che peraltro, a quanto pare, non sarebbe riuscita a tradurre correttamente il Minosse, o Della legge, attribuito a Platone”.

Un’impresa su quattro ha integrato l’intelligenza artificiale nei propri processi produttivi ed entro un anno si stima che il 60% delle aziende la utilizzerà nei procedimenti di assunzione.

«Si ritiene, inoltre, che l’intelligenza artificiale potrebbe sostituire, nei prossimi anni, circa 85 milioni di posti di lavoro creandone, tuttavia, 97 (milioni) di nuovi, sebbene con un rischio di nuove, ulteriori diseguaglianze, evidenziato con preoccupazione dal Fondo monetario internazionale».

Il presidente ricorda poi le applicazioni di intelligenza artificiale nell’ambito della sanità e a fini diagnostici, sperimentali e terapeutici.

«Questi esempi – e molti altri che si potrebbero addurre – dimostrano come effettivamente l’intelligenza artificiale sia ormai entrata a far parte del nostro orizzonte quotidiano di vita e sempre più ne sarà elemento costitutivo, con effetti della cui portata (in senso lato antropologica) non siamo, forse, del tutto consapevoli».

L’intelligenza artificiale viene usata in guerra.

«La persistenza della guerra, ai confini d’Europa e, da ottobre scorso, anche nel cuore del Mediterraneo, offre all’intelligenza artificiale un drammatico terreno di sperimentazione in contesti bellici, dove la potenza geometrica dell’algoritmo rischia di amplificare senza limiti la capacità offensiva dei conflitti, sottraendo all’uomo il controllo della violenza».

Si fa qui riferimento al ricorso ai sistemi Lavender nella guerra a Gaza e alle denunce per cui l’alto numero di civili uccisi a Gaza sarebbe imputabile anche “all’uso indiscriminato dell’intelligenza artificiale”.

Ancor più drammatica, se possibile, la previsione di usare l’IA in guerra senza alcun intervento, di nessun tipo, della dimensione umana.

“Tracciare colonne d’Ercole da non varcare”

Sostiene il presidente dell’Autorità: «La continua espansione ed evoluzione dell’intelligenza artificiale impone dunque di tracciare (e questo è il massimo compito della politica) un limite di sostenibilità, delle colonne d’Ercole da non varcare perché il progresso non divenga, paradossalmente, socialmente regressivo».

Stanzione fa riferimento all’uso dell’intelligenza artificiale in campo neuroscientifico, come “decoder” semantico dell’attività neurale, che ha già avuto applicazione rivoluzionaria per la cura di stati neurodegenerativi.  “Purché non si giunga alla trasparenza del pensiero”, spiega parlando di queste applicazioni.

«La possibilità di traduzione dell’attività neurale in impulsi algoritmici è, infatti, una conquista preziosa a condizione che non venga utilizzata per leggere il pensiero, rendendo dunque accessibile anche quel foro interno la cui riservatezza è presupposto necessario per la libertà di coscienza».

L’obiettivo è alfine quello di evitare che l’uomo diventi “strumento della macchina” invece che suo “dominus”.

Il Garante ribadisce inoltre che «l’individuazione nel Garante dell’Autorità competente per l’AI Act sarebbe la più coerente con l’incidenza, profonda e trasversale, dell’intelligenza artificiale, sui diritti fondamentali (cui, significativamente, si rivolge la stessa valutazione d’impatto prescritta per i sistemi ad alto rischio)».


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)