L'Europa approva il testo di legge sull'Intelligenza Artificiale

Ai Act
(Immagine:: phonlamaiphoto)

Il Parlamento europeo ha adottato una posizione negoziale sulla legge sull'intelligenza artificiale, con l'obiettivo di stabilire norme sicure e trasparenti sull'IA.

Il Parlamento europeo ha compiuto un passo significativo verso la definizione di norme sull'intelligenza artificiale (IA) con l'adozione della posizione negoziale sulla legge sull'intelligenza artificiale. In sostanza, è stato approvato il testo di legge del cosiddetto AI Act. che ora passerà alle discussioni dei triloghi. 

Le norme, sostenute con 499 voti a favore, mirano a garantire che l'IA sviluppata e utilizzata in Europa aderisca ai diritti e ai valori dell'UE, sottolineando la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.

La tecnologia IA verrebbe classificata in quattro livelli di rischio, da minimo a inaccettabile. La tecnologia ritenuta un rischio inaccettabile - come i sistemi che giudicano le persone in base al comportamento, noti come social scoring, e gli strumenti di polizia predittiva - sarebbe vietata, mentre altre soluzioni IA sarebbero sottoposte a controlli molto severi. 

Ciò include il divieto dei sistemi di IA per il social scoring, la categorizzazione biometrica e il riconoscimento delle emozioni. Gli eurodeputati hanno ampliato l'elenco per includere il divieto di applicazioni intrusive e discriminatorie, come i sistemi di identificazione biometrica remota in tempo reale, i sistemi di polizia predittiva e lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.

Il PPE (Partito Popolare Europeo) aveva proposto esenzioni per garantire l'utilizzo del riconoscimento facciale nei casi di ricerca di persone scomparse, per la prevenzione di attacchi terroristici e l'identificazioni di autori di reati. Secondo quanto riporta Euronews, però, i deputati del gruppo erano a Milano per i funerali di Silvio Berlusconi e non hanno votato, portato alla bocciatura degli emendamenti stessi. 

Le norme classificano anche le applicazioni di IA ad alto rischio che possono causare danni alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente. In particolare, sono stati aggiunti all'elenco ad alto rischio i sistemi di IA utilizzati per influenzare l’esito elettorale. Anche gli algoritmi di raccomandazione dei social media sono ritenuti ad alto rischio. 

Un dei capitolo più complessi riguarda l’obbligo di trasparenza, tema su cui OpenAI ha detto che potrebbe portare a “cessare le operazioni” in Europa. In sostanza, la norma europea obbliga le aziende a rivelare quando i contenuti sono stati generati dall'IA. 

Qui le cose si fanno difficili sotto molti aspetti: da una parte non è chiaro il come. Se si parla di mettere un watermark, gli strumenti per rimuoverlo sono di facile accesso. Se anche ChatGPT mette qualcosa nei testi o nelle immagini, non ci vuole molto per togliere il segnale e far circolare quel materiale come se fosse autentico. Il problema dei “deepfake” tuttavia riguarda in particolare video e immagini, e forse con quelle si può davvero fare qualcosa per garantire che i falsi siano immediatamente riconoscibili come tali. 

Altro aspetto difficile è il copyright: le aziende hanno usato moltissimo materiale per addestrare gli algoritmi, e a volte gli output generati sono un po’ troppo simili agli originali. Svelare quali sono questi originali significherebbe doverne pagare il copyright, e potenzialmente le cifre in gioco potrebbero mandare le aziende in amministrazione controllata - se non proprio bancarotta. D’altra parte non è nemmeno giusto che si usino materiali protetti senza pagare. 

I negoziati con il Consiglio (triloghi) sulla forma finale della legge inizieranno presto. L’approvazione finale dovrebbe arrivare entro la fine dell’anno, e l’Unione Europa è la prima grande entità geopolitica a varare una norma simile - ma anche Stati Uniti e Cina ci stanno lavorando, per quanto con approcci diversi. 

L'onere dell'applicazione, una volta concluso l’iter a livello europeo, ricadrebbe come sempre sugli Stati membri dell'Unione Europea, a cui spetterà il compito di varare norme applicative a livello nazionale. Per le aziende che violano le norme sono previste multe fino a 33 milioni di dollari o al 6% del fatturato globale annuo dell'azienda. Nel caso di colossi come Google o Microsoft, si tradurrebbe in sanzioni da miliardi di dollari.