Intelligenza Artificiale, Autorità Antitrust del G7 contro i rischi per la concorrenza (Foto Tara Winstead per Pexels)

Le Autorità Antitrust del G7 contro i rischi alla concorrenza portati dall’Intelligenza artificiale (AI). Una dichiarazione congiunta (Communiqué) sulla concorrenza digitale, firmata nei giorni scorsi dalle delegazioni antitrust e governative del G7, prende le mosse dai rischi per la società derivati dall’avvento dell’AI, pure in grado di offrire grandi prospettive per l’innovazione e per la crescita economica. Nella dichiarazione le Autorità hanno spiegato i rischi per la concorrenza e la competività che l’Intelligenza artificiale può avere nell’economia e nella società e i principi che invece possono garantire di beneficiare delle opportunità dell’AI – come leale concorrenza, eque opportunità, possibilità di scelta, innovazione, trasparenza.

Il G7 Concorrenza si è svolto a Roma nei giorni scorsi, a porte chiuse, il 3 e 4 ottobre. Hanno partecipato le delegazioni antitrust e governative dei sette Paesi membri del gruppo (Canada, Francia, Germania, Giappone, Italia, Regno Unito, Stati Uniti) più quella della Commissione europea, per un totale di 35 delegati. Il tema centrale delle discussioni e dei gruppi di lavoro è stato l’intelligenza artificiale e i problemi legati alla concorrenza. A chiusura del vertice, una dichiarazione congiunta nella quale le Autorità di Concorrenza e i rappresentanti governativi evidenziano le proprie preoccupazioni per innovazione umana e copyright, protezione dei consumatori, privacy e protezione dei dati.

AI, concorrenza e rischi

Il documento parte dalla considerazione che l’AI rappresenta “una promessa trasformativa per le nostre società ed economie”, dunque è fondamentale “mantenere mercati aperti, equi e contendibili al fine di garantire che le nostre economie beneficino dell’innovazione che l’IA può contribuire a creare.”

Alcune caratteristiche dell’AI sollevano però preoccupazioni per la concorrenza. Ad esempio c’è il rischio che venga esacerbata la tendenza alla concentrazione. “Riconosciamo che alcune caratteristiche dei mercati dell’AI, in particolare nell’ambito dell’Intelligenza artificiale generativa (GenAI) può contribuire alla concentrazione del potere di mercato, limitare la concorrenza e ostacolare l’innovazione”.

“Il controllo concentrato di input AI cruciali – prosegue il documento – ha il potenziale di collocare un piccolo numero di aziende in posizioni di mercato chiave. Queste aziende potrebbero sfruttare i colli di bottiglia esistenti o emergenti, riducendo la concorrenza e limitando l’accesso al mercato per i nuovi entranti. Inoltre, anche l’accesso alle risorse energetiche potrebbe diventare un collo di bottiglia, in particolare man mano che l’implementazione dell’IA si espande e i modelli AI continuano ad aumentare in scala e complessità”.

Le odierne piattaforme tecnologiche dominanti, già oggi attive sull’AI, potrebbero inoltre sfruttare il loro potere di mercato creando barriere all’ingresso di nuovi operatori o start-up. “Esiste il rischio – prosegue la dichiarazione – che le aziende con un potere significativo nei mercati digitali esistenti possano consolidare o estendere tale potere ai mercati adiacenti dell’Intelligenza artificiale. Attraverso effetti di rete, cicli di feedback dei dati e integrazione tra ecosistemi, queste aziende potrebbero essere in grado di aumentare le barriere all’ingresso e soffocare la concorrenza”.

Il rischio è anche quello che si sopprima la concorrenza nei mercati legati all’AI.

L’uso dell’intelligenza artificiale e degli algoritmi può facilitare la collusione tra le imprese, rendendola più facile per loro coordinare i prezzi o i salari, condividere informazioni e minare la concorrenza”.

Rischi e protezione dei consumatori

Le preoccupazioni espresse nella dichiarazione riguardano inoltre la creatività umana e il diritto d’autore, la privacy e la protezione dei dati, nonché la protezione dei consumatori.

“I risultati generati dall’AI hanno il potenziale di fuorviare i consumatori, modellare le loro preferenze e impedire loro di fare scelte informate. Garantire che i sistemi di AI non distorcano i processi decisionali dei consumatori attraverso informazioni fuorvianti è fondamentale per mantenere la fiducia dei consumatori e promuovere un un ambiente competitivo sano”.

Nel complesso questi rischi, si legge ancora nella dichiarazione, “possono influenzare significativamente la diversità delle opinioni, la gamma e la qualità delle scelte a disposizione di consumatori e imprese, nonché la qualità e l’affidabilità delle informazioni disponibili al pubblico”.

Per questo le Authority si sono impegnate ad applicare in modo tempestivo le norme antitrust “per salvaguardare la concorrenza leale nei mercati digitali e nell’IA e per garantire che i benefici dell’IA siano pienamente realizzati e distribuiti nelle nostre economie e nella nostra società”. Sottolineano inoltre l’importanza di politiche adattive e orientate al futuro nei mercati digitali e nell’IA: “Regole e politiche specifiche per l’IA, così come altri approcci normativi e politici – si legge nella dichiarazione congiunta -, possono contribuire a garantire che i sistemi di IA siano sviluppati e distribuiti in modo sicuro, protetto e affidabile”.


Vuoi ricevere altri aggiornamenti su questi temi?
Iscriviti alla newsletter!



Dopo aver inviato il modulo, controlla la tua casella per confermare l'iscrizione
Privacy Policy

Parliamone ;-)