PROSPETTIVE

Picture of Angelo Tabaro

Angelo Tabaro

REGOLAMENTO EUROPEO INTELLIGENZA ARTIFICIALE – PARTE 2 –

Legge Europea sull’intelligenza artificiale: rivoluzione nelle norme e pratiche – PARTE 2 –

Legge europea intelligenza artificiale per regolare i sistemi di IA con obblighi basati sul rischio. A breve l’entrata in vigore

 

Legge europea intelligenza artificiale per regolare i sistemi di IA con obblighi basati sul rischio. A breve l'entrata in vigore

 

Il 13 marzo 20124 il Parlamento Europeo ha approvato la Legge Europea sull’intelligenza Artificiale.

Prima norma sovranazionale che regolamenta questa materia.

La definizione di sistema di IA formulata nel regolamento è quella di “un sistema basato su una macchina progettata per funzionare con diversi livelli di autonomia e che può mostrare adattività (?) dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Il Regolamento segue un approccio “basato sul rischio”, in base al quale tanto maggiore è il rischio, quanto più rigorose sono le regole.

La nuova disciplina stabilisce gli obblighi basati sul rischio nell’utilizzo dell’intelligenza artificiale per fornitori e operatori dei sistemi di IA, a seconda del livello di rischio che essa può generare.

Si hanno quindi:

  1. un rischio inaccettabile (riportato nella precedente pubblicazione – PARTE 1 -);
  2. un rischio alto;
  3. un rischio basso o minimo

     

I sistemi che presentano un rischio alto impongono ai fornitori di sottoporre il sistema ad una valutazione di conformità.

I sistemi IA ad alto rischio dovranno quindi essere testati con set di dati sufficientemente rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello. Il controllo servirà anche a garantire che, se presenti, queste possano essere risolte mediante opportune misure di rilevazione, correzione e attenuazione.

Dovranno, inoltre, essere tracciabili e verificabili, garantendo la conservazione dell’opportuna documentazione, compresi i dati utilizzati per addestrare l’algoritmo, fondamentali per le indagini ex post.

Tra i sistemi di IA ad alto rischio rientrano, in particolare, quelli:

  • di identificazione biometrica remota, categorizzazione biometrica e riconoscimento delle emozioni (al di fuori delle categorie vietate);
  • utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;
  • finalizzati a determinare l’accesso, l’ammissione o l’assegnazione agli istituti di istruzione e formazione professionale. Questo, ad esempio, per valutare i risultati dell’apprendimento e orientare il processo di apprendimento e il monitoraggio dei comportamenti disonesti;
  • relativi alla valutazione dell’occupazione, ad ottimizzare la gestione dei lavoratori e l’accesso al lavoro autonomo. Per esempio, per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati;
  • usati per determinare l’accesso a servizi e a prestazioni pubblici e privati essenziali. Si può citare, per esempio, l’assistenza sanitaria;
  • finalizzati alla valutazione dell’affidabilità creditizia delle persone fisiche, alla valutazione dei rischi finanziari, nonché alla determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;
  • utilizzati nelle attività di contrasto, di gestione della migrazione, dell’asilo e del controllo delle frontiere, di amministrazione della giustizia. Oltre a ciò, anché nello svolgimento dei processi democratici e per la valutazione e classificazione delle chiamate di emergenza.

I sistemi IA che presentano rischio minimo come videogiochi o filtri spam saranno esenti da obblighi. Resta ferma però l’adesione volontaria a codici di condotta, da parte dei fornitori di tali sistemi, ad esempio laddove esista un evidente rischio di manipolazione.

Gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina.

In ogni caso vengono stabiliti anche obblighi specifici basati sul rischio dell’intelligenza artificiale per la trasparenza.

La legge legge europea sull’intelligenza artificiale che approva il Regolamento, entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore.

Fatto salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

Il testo della legge è ancora in attesa di numerazione e pubblicazione nella Gazzetta Ufficiale della UE che dovrebbe avvenire dopo l’approvazione della stessa da parte del Consiglio Europeo e previa verifica finale dei Giuristi Linguisti delle istituzioni europee.

Per chi fosse interessato ad approfondire l’utilizzo dei sistemi IA con i relativi obblighi, può prendere visione del testo approvato dal Parlamento nel sito:

https://www.europarl.europa.eu/doceo/document/A-9-2023-0188-AM-808-808_IT.pdf

La presenza di ben 180 punti in premessa al testo della legge fa comprendere la complessità della materia e il grande lavoro di analisi, elaborazione, confronto e stesura del testo relativo.

ISCRIVITI ALLA NEWSLETTER

Leave a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.