Legge UE sull’intelligenza artificiale: siglato l’accordo per un’AI affidabile
L’uso dell’intelligenza artificiale nell’UE sarà regolato dall’AI Act, la prima legge globale sull’intelligenza artificiale al mondo. Come ci proteggerà e quali saranno i prossimi passi?
Nell’ambito della sua strategia digitale, l’UE ha voluto regolamentare l’intelligenza artificiale (AI) per garantire migliori condizioni per lo sviluppo e l’utilizzo di questa tecnologia innovativa. L’intelligenza artificiale può creare molti vantaggi, come una migliore assistenza sanitaria; trasporti più sicuri e puliti; produzione più efficiente; ed energia più economica e sostenibile.
Nell’aprile 2021, la Commissione Europea ha proposto il primo quadro normativo dell’UE per l’IA: i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio significheranno più o meno regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’intelligenza artificiale.
La priorità del Parlamento è garantire che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati dalle persone, piuttosto che dall’automazione, per prevenire esiti dannosi. Il Parlamento vuole inoltre stabilire una definizione uniforme e neutrale dal punto di vista tecnologico per l’intelligenza artificiale che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.
I deputati hanno raggiunto un accordo politico con il Consiglio su un disegno di legge per garantire che l’intelligenza artificiale in Europa sia sicura, rispetti i diritti fondamentali e la democrazia, mentre le imprese possano prosperare ed espandersi.
Venerdì 8 dicembre i negoziatori del Parlamento e del Consiglio hanno raggiunto un accordo provvisorio sulla legge sull’intelligenza artificiale. Questo regolamento mira a garantire che i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale siano protetti dall’IA ad alto rischio, promuovendo al contempo l’innovazione e rendendo l’Europa leader nel settore. Le norme stabiliscono obblighi per l’IA in base ai rischi potenziali e al livello di impatto.
Applicazioni vietate. Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’IA, i colegislatori hanno convenuto di vietare:
– sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
– raccolta non mirata di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale;
– riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
– punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali;
– sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
– l’intelligenza artificiale viene utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).
– esenzioni delle forze dell’ordine
I negoziatori hanno concordato una serie di garanzie ed eccezioni limitate per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi di contrasto, soggetti a previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” verrebbe utilizzato rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.
L’RBI “in tempo reale” rispetterebbe condizioni rigorose e il suo utilizzo sarebbe limitato nel tempo e nel luogo, allo scopo di:
– ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale); prevenzione di una minaccia terroristica specifica e attuale, o
la localizzazione o l’identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (ad esempio terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Obblighi per i sistemi ad alto rischio. Per i sistemi di IA classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), sono stati concordati obblighi chiari. Gli eurodeputati sono riusciti con successo a includere, tra gli altri requisiti, una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario. Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti.
Guardrail per sistemi generali di intelligenza artificiale. Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere e della rapida espansione delle loro capacità, è stato concordato che i sistemi di intelligenza artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno aderire ai requisiti di trasparenza come inizialmente proposto dal Parlamento. Questi includono la stesura di documentazione tecnica, il rispetto della normativa UE sul diritto d’autore e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione.
Per i modelli GPAI ad alto impatto con rischio sistemico, i negoziatori del Parlamento sono riusciti a garantire obblighi più rigorosi. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni dei modelli, valutare e mitigare i rischi sistemici, condurre test contraddittori, riferire alla Commissione su incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica. I deputati hanno inoltre insistito sul fatto che, fino a quando non verranno pubblicate norme UE armonizzate, le GPAI con rischio sistemico potranno fare affidamento su codici di condotta per conformarsi al regolamento.
Misure a sostegno dell’innovazione e delle PMI. I deputati volevano garantire che le imprese, in particolare le PMI, possano sviluppare soluzioni di intelligenza artificiale senza indebite pressioni da parte dei giganti del settore che controllano la catena del valore. A tal fine, l’accordo promuove i cosiddetti sandbox normativi e test nel mondo reale, istituiti dalle autorità nazionali per sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.
Il mancato rispetto delle norme può portare a sanzioni che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.
A seguito dell’accordo, il correlatore Brando Benifei (S&D, Italia) ha dichiarato: “È stato lungo e intenso, ma ne è valsa la pena. Grazie alla resilienza del Parlamento europeo, la prima legislazione orizzontale al mondo sull’intelligenza artificiale manterrà la promessa europea, garantendo che i diritti e le libertà sono al centro dello sviluppo di questa tecnologia innovativa. La corretta attuazione sarà fondamentale: il Parlamento continuerà a monitorare da vicino, per garantire il sostegno a nuove idee imprenditoriali con sandbox e regole efficaci per i modelli più potenti”.
Quali saranno i prossimi passi?
Il testo concordato dovrà ora essere adottato formalmente sia dal Parlamento che dal Consiglio per diventare legge dell’UE. Le commissioni Mercato interno e Libertà civili del Parlamento voteranno sull’accordo in una prossima riunione.