ai act testo definitivo

AI Act approvato dal Consiglio UE: le nuove regole sull’intelligenza artificiale

Il rapido propagarsi dell’intelligenza artificiale, con le sue implicazioni dirette sul mondo del lavoro (e non solo), ha reso necessario pareggiare i conti a livello normativo, con l’emanazione del cosiddetto AI Act

Il testo definitivo del regolamento è stato approvato dal Consiglio UE il 13 febbraio 2024: si tratta del primo regolamento mondiale sull’intelligenza artificiale. 

Un passo avanti decisivo per porre una base normativa in un settore in continua evoluzione, in particolare per quel che riguarda l’intelligenza artificiale generativa e i suoi modelli e prodotti

Il regolamento dovrà essere approvato in via definitiva tra marzo e aprile, quando ci sarà il voto del Parlamento europeo. Dovrebbe quindi diventare legge nel mese di maggio, con la sua pubblicazione in Gazzetta Ufficiale. Saranno comunque necessari due anni prima che la legge diventi esecutiva.

Vediamo allora di analizzare il contenuto del testo che a partire da questo momento non dovrebbe più subire ulteriori modifiche. È composto da 85 articoli e 9 allegati.

AI Act: definizione di intelligenza artificiale

L’approvazione dell’AI Act fa dell’Unione Europea la prima in assoluto ad avere imposto dei limiti nell’utilizzo dell’AI, scrivendo una norma che rappresenta una forma di tutela per i cittadini, ma anche per l’innovazione europea. Ci sono comunque alcune aree che sono rimaste escluse dal Regolamento, come per esempio l’industria militare

Il testo riporta, all’articolo 3, la definizione di Intelligenza artificiale – la prima definizione legislativa che sia mai stata scritta in merito. In particolare, l’intelligenza artificiale viene definita come

“un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. 

In poche parole, l’AI si caratterizza per i seguenti tratti: autonomia, adattamento e capacità di influenzare l’ambiente fisico o virtuale. Tale definizione è stata modificata affinché potesse essere in linea con le organizzazioni internazionali che si occupano di intelligenza artificiale, in primis l’OCSE

La definizione non copre i sistemi software tradizionali più semplici o gli approcci di programmazione, i quali si basano su regole definite esclusivamente da persone fisiche per eseguire automaticamente operazioni. 

Usi proibiti dell’AI

Il Regolamento mette subito in evidenza quelli che sono gli impieghi vietati di intelligenza artificiale, tra i quali si annoverano:

  • i sistemi che utilizzano tecnologie subliminali per manipolare i comportamenti di una persona;
  • la categorizzazione biometrica relativa a dati personali sensibili, come per esempio l’orientamento politico;
  • lo scraping, ovvero la pesca a strascico, di volti da internet;
  • il social scoring, cioè la pratica con la quale si attribuiscono o si tolgono diritti in relazione al comportamento del cittadino (pratica adottata e accettata in Cina);
  • i sistemi di riconoscimento delle emozioni in luoghi quali la scuola o il posto di lavoro. 

Viene vietata anche la polizia predittiva, ovvero quella che utilizza informazioni quali la nazionalità o i tratti della personalità per prevedere la possibilità che un dato soggetto possa commettere un reato. 

Ci sono comunque alcune eccezioni alla regola, come per esempio quella relativa al divieto di categorizzazione biometrica che non si applica sull’etichettatura o sul filtro di dataset biometrici acquisiti legalmente per scopi di polizia. Restano ammessi anche quei sistemi di analisi del rischio che non facciano profilazione di individui, quali quelli utilizzate per scoprire le rotte del narcotraffico o per smascherare le transazioni sospette. 

Riconoscimento facciale

Il riconoscimento facciale e biometrico viene vietato. Il motivo è che può condurre a risultati marcati da pregiudizi e provocare effetti discriminatori, salvo in tre situazioni ampiamente elencante e ben definite.

Sono quindi presenti tre eccezioni in cui il ricorso al riconoscimento facciale è necessario per raggiungere un sostanziale pubblico interesse, la cui importanza supera i rischi

Si tratta dei casi:

  • nei quali si ricerchino le vittime di reati e persone scomparse;
  • in cui vi sia una minaccia certa alla vita o alla sicurezza fisica delle persone o di attacco terroristico;
  • di localizzazione e identificazione dei presunti autori di una lista di 16 reati contenuti nell’allegato IIa. 

Si tratta di:

  1. traffico di esseri umani;
  2. terrorismo;
  3. abusi sessuali sui minori e pedopornografia;
  4. traffico illecito di armi, munizioni ed esplosivi;
  5. traffico di droghe e sostanze psicotrope;
  6. omicidio o gravi feriti;
  7. traffico di organi;
  8. traffico di materiale radioattivo o nucleare;
  9. crimini sotto la giurisdizione della Corte penale internazionale;
  10. sequestro di persone e ostaggi;
  11. dirottamento di aerei e navi;
  12. stupri;
  13. crimini ambientali;
  14. sabotaggio;
  15. rapine organizzate e armate;
  16. partecipazione a un’organizzazione criminale coinvolta in uno o più crimini tra quelli elencati. 

Riconoscimento biometrico in tempo reale

Il riconoscimento biometrico in tempo reale deve invece essere utilizzato unicamente per confermare l’identità della persona individuata come target. Le forze di Polizia potranno adottare questi strumenti solo dopo aver verificato gli impatti sui diritti fondamentali dei cittadini e aver ricevuto l’approvazione di un giudice o di un ente indipendente. 

Viene comunque garantita una procedura di urgenza, che permette di attivare la sorveglianza biometrica e richiedere l’autorizzazione entro 24 ore di tempo – che diventano 48 nel caso del riconoscimento facciale. Qualora non dovesse arrivare l’ok, il riconoscimento facciale andrebbe immediatamente bloccato e i dati cancellati. 

I garanti nazionali dei dati personali dovranno poi inviare, ogni anno, alla Commissione, una relazione sull’utilizzo dei sistemi di riconoscimento biometrico in tempo reale e degli eventuali usi proibiti. 

Intelligenze artificiali ad alto rischio

Tra i sistemi vietati dall’AI Act ci sono quindi le cosiddette intelligenze artificiali ad alto rischio, il cui utilizzo può rappresentare un rischio effettivo per:

  • la salute;
  • la sicurezza pubblica;
  • il trasporto;
  • i diritti fondamentali dei cittadini. 

Ricordiamo che il Regolamento prevede la classificazione delle AI in relazione a delle classi di rischio, come riportato nella tabella di seguito. 

Tipologia di rischioCosa comprende
Rischio inaccettabileUn esempio sono i sistemi di sorveglianza di massa e quelli che manipolano il comportamento umano che, come abbiamo visto, sono vietati
Alto RischioSistemi utilizzati nei settori citati, ovvero salute, trasporto, sicurezza pubblica, e giustizia

Tali sistemi devono prevedere degli standard di sicurezza, trasparenza e affidabilità molto elevati
Rischio limitato Ne fanno parte sistemi quali i chatbot

Si richiede una trasparenza minima, ovvero gli utenti devono essere informati dell’interazione con un sistema AI
Rischio minimo o trascurabileTali sistemi includono buona parte delle applicazioni AI tra le più comuni

Tale classificazione dei rischi è fondamentale per le aziende. In base al livello di rischio che sarà assegnato ai loro sistemi AI, infatti, le stesse dovranno adottare sistemi di protezione che siano in grado di garantire sicurezza, trasparenza e affidabilità

La suddivisione in classi di rischio ha comunque un impatto non solo sulle decisioni di investimento delle aziende, ma anche sulla percezione che i consumatori possono avere nei confronti di un prodotto che rientra nella fascia ad alto rischio

Compiti degli sviluppatori

Chi si occupa di sviluppare intelligenze artificiali ad alto rischio dovrà impostare dei sistemi di controllo e gestire i dati in modo trasparente, specificando quale sia l’origine delle informazioni usate, che dovranno essere tenute aggiornate. 

Gli sviluppatori dovranno quindi comunicare il livello di sicurezza dell’AI e anche:

  • istituire un sistema di verifica della qualità;
  • applicare il marchio CE, con il quale si identifica un prodotto autorizzato dall’Unione;
  • comunicare eventuali incidenti alle autorità. 

Saranno inoltre sottoposti a ulteriori controlli nell’ipotesi in cui, modificando l’algoritmo, lo facciano rientrare nella categoria delle AI ad altro rischio. 

AI per uso generale

Vengono regolamenti anche i sistemi di AI per uso generale: sono quelli che si possono usare per la creazione di un contenuto testuale o visivo, i cui algoritmi vengono allenati con dati non categorizzati – si pensi a GPT-4, alla base di ChatGPT, o LaMDA, dietro Google Gemini (ex Bard). 

È stata fissata una soglia attraverso la quale sarà possibile individuare quali siano i sistemi che possono avere un più alto impatto sulla popolazione, identificata dalla potenza di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale). Attualmente, soltanto GPT-4 di OpenAI rispetta questa caratteristica.

La soglia individuata potrà comunque essere modificata in futuro, per andare incontro alle evoluzioni del mercato delle intelligenze artificiali. 

AI Act: considerazioni finali

L’AI Act è un regolamento articolato (si rimanda al testo completo presente di seguito), che nei fatti mira a responsabilizzare sia l’AI generativa, sia l’essere umano, introducendo i requisiti e le misure che chi sviluppa o utilizza un sistema di AI ad alto rischio è tenuto a rispettare.

Si responsabilizza l’AI generativa perché viene garantita sicurezza e trasparenza nelle fasi di progettazione e implementazione, e un utilizzo sicuro e responsabile dei sistemi di intelligenza artificiale, al fine di prevenirne un uso dannoso o discriminatorio. 

Viene poi riconosciuta responsabilità all’essere umano che utilizza sistemi di intelligenza artificiale. In caso di danni causati da un sistema a rischio elevato, la responsabilità può infatti essere attribuita non solo a chi ha sviluppato il sistema, ma anche a chi lo utilizza. 

LinkedIn
WhatsApp
Facebook
Email
Print

Industrialized Litigation Services S.r.l.
Via dell’Orso 8
20121 Milano
P.IVA 12395750966

© Copyright - Industrialized Litigation Services S.r.l.