“AI Act” dell’Unione Europea

AI Act Unione Europea

Il Parlamento Europeo sigla il primo regolamento sull’intelligenza artificiale al mondo

Nell’ambito della sua strategia digitale, l’UE vuole regolamentare l’intelligenza artificiale (AI) per garantire migliori condizioni per lo sviluppo e l’utilizzo di questa tecnologia innovativa.

L’intelligenza artificiale può creare molti vantaggi, per esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, produzione più efficiente ed energia più economica e sostenibile.

Nell’aprile 2021, la Commissione Europea ha proposto il primo quadro normativo dell’UE per l’IA, in cui si sostiene che i sistemi di intelligenza artificiale possono essere utilizzati in diverse applicazioni ma devono essere analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio incideranno direttamente sulle modalità di utilizzo e applicazione.

AI Act Unione Europea

Parlamento Europeo

Le intenzioni del Parlamento nella stesura della legislazione sull’IA

La priorità del Parlamento è garantire che i sistemi d’intelligenza artificiale utilizzati nei Paesi europei siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi d’intelligenza artificiale dovrebbero essere supervisionati dalle persone, piuttosto che dall’automazione, per prevenire esiti dannosi.

Il Parlamento vuole inoltre stabilire una definizione uniforme e neutrale, dal punto di vista tecnologico, per l’intelligenza artificiale che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.

AI Act Unione Europea

Foto generata dall’intelligenza artificiale da Article

“AI Act”: regole diverse per diversi livelli di rischio

Le recenti disposizioni contenuti nell’“AI Act” entra nel merito delle diverse questioni aperte. Le nuove regole stabiliscono obblighi per fornitori e utenti secondo il livello di rischio derivante dall’intelligenza artificiale. Anche laddove i sistemi d’Intelligenza artificiale comportino rischi minimi, essi devono essere valutati.

 

Il “rischio inaccettabile”

La prima messa a fuoco riguarda il cosiddetto “rischio inaccettabile”, cioè quando i sistemi d’intelligenza artificiale sono considerati una minaccia per le persone e dunque saranno oggetto di divieto.

Questi sono i casi inclusi:

• manipolazione cognitivo comportamentale di persone o specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini,

• distinzioni sociale: classificare le persone in base al comportamento, allo stato socioeconomico o alle caratteristiche personali,

• Identificazione biometrica e categorizzazione delle persone,

• Sistemi d’identificazione biometrica in tempo reale e remota, come il riconoscimento facciale.

Alcune eccezioni possono essere consentite per scopi di applicazione della legge. I sistemi d’identificazione biometrica remota “in tempo reale” saranno consentiti in un numero limitato di casi gravi, mentre i sistemi di identificazione biometrica remota “post”, in cui l’identificazione avviene dopo un ritardo significativo, saranno consentiti per perseguire reati gravi e solo dopo l’approvazione del tribunale.

 

Utilizzi ad “alto rischio”

I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) sistemi d’intelligenza artificiale utilizzati nei prodotti che rientrano nella legislazione sulla sicurezza dei prodotti dell’UE. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) sistemi di IA ricadenti in ambiti specifici che dovranno essere registrati in un database comunitario:

• Gestione e funzionamento delle infrastrutture critiche

• Istruzione e formazione professionale

• Occupazione, gestione dei lavoratori e accesso al lavoro autonomo

• Accesso e godimento dei servizi privati essenziali e dei servizi e benefici pubblici

• Forze dell’ordine

• Gestione della migrazione, dell’asilo e del controllo delle frontiere

• Assistenza nell’interpretazione giuridica e nell’applicazione della legge.

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante tutto il loro ciclo di vita. Le persone avranno il diritto di presentare reclami sui sistemi d’intelligenza artificiale alle autorità nazionali designate.

AI Act Unione Europea

Requisiti di trasparenza

L’intelligenza artificiale generativa, come ChatGPT, non sarà classificata come ad “alto rischio”, ma dovrà rispettare i requisiti di trasparenza e la legge sul copyright dell’UE:

• divulgare che il contenuto è stato generato dall’intelligenza artificiale

• progettare il modello per evitare che generi contenuti illegali

• pubblicazione di riepiloghi dei dati protetti da copyright utilizzati per la formazione

I modelli d’intelligenza artificiale generica ad alto impatto che potrebbero comportare un rischio sistemico, come il modello di intelligenza artificiale più avanzato GPT-4, dovrebbero essere sottoposti a valutazioni approfondite e qualsiasi incidente grave dovrebbe essere segnalato alla Commissione europea.

I contenuti generati o modificati con l’aiuto dell’intelligenza artificiale – immagini, file audio o video (ad esempio deepfake) – devono essere chiaramente etichettati come generati dall’intelligenza artificiale in modo che gli utenti siano consapevoli quando s’imbattono in tali contenuti.

 

Sostenere l’innovazione

L’individuazione di ambiti specifici relativi ai rischi di utilizzo dell’IA nei diversi ambiti ha la finalità non restrittiva ma di stimolo all’innovazione nelle modalità giuste e di salvaguardia per l’utente.

La legge mira a offrire alle start-up e alle piccole e medie imprese l’opportunità di sviluppare e formare modelli di intelligenza artificiale prima del loro rilascio al grande pubblico.

Questo è il motivo per cui si richiede che le autorità nazionali forniscano alle aziende un ambiente di prova che simuli condizioni vicine al mondo reale.

 

Prossimi passi

Si prevede che il testo concordato venga adottato definitivamente nell’aprile 2024. Sarà pienamente applicabile 24 mesi dopo l’entrata in vigore, ma alcune parti saranno applicabili prima:

• Il divieto dei sistemi di IA che presentano rischi inaccettabili entrerà in vigore sei mesi dopo l’entrata in vigore

• I codici di condotta si applicheranno nove mesi dopo l’entrata in vigore

• Le norme sui sistemi di IA di carattere generale che devono rispettare i requisiti di trasparenza si applicheranno 12 mesi dopo l’entrata in vigore

I sistemi ad alto rischio avranno più tempo per conformarsi ai requisiti poiché gli obblighi che li riguardano diventeranno applicabili 36 mesi dopo l’entrata in vigore.

 

Il presente documento traduce e integra la sintesi del dispositivo legislativo apparso su “Article” apparso il 9-12-2023 nella pagina web del Directorate General for Communication del Parlamento Europeo.

 

Scarica il testo legislativo

Traduzione a cura di G. Valleriani/MG Research/03/2024