Un grande passo avanti sulla regolamentazione dell’Intelligenza artificiale è stato fatto dal Parlamento europeo con la legge appena approvata. Il regolamento è il risultato dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni e garantisce una aggiore sicurezza per i consumatori e il rispetto dei diritti fondamentali dei cittadini promuovendo l’innovazione.
L’obiettivo è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai rischi rappresentati dai sistemi di IA utilizzando come criterio di base quello dei possibili rischi e del livello d’impatto.
È un importantissimo risultato con cui le pratiche di Intelligenza artificiale considerate inaccettabili saranno proibite in Europa con l’obiettivo di tutelare i diritti dei lavoratori e dei cittadini, conservando però la possibilità e il supporto per le aziende per conformarsi alle nuove regole. Il regolamento dovrebbe essere adottato definitivamente prima della fine della legislatura e dev’essere formalmente approvato dal Consiglio.
La legge europea sull’intelligenza artificiale trae origine direttamente dalle proposte dei cittadini che hanno partecipato alla Conferenza sul futuro dell’Europa (COFE), svolta dall’aprile 2021 al maggio 2022, in particolare alla proposta 12(10) sul rafforzamento della competitività dell’UE nei settori strategici, alla proposta 33(5) su una società sicura e affidabile, tra cui la lotta alla disinformazione e la garanzia di un controllo umano di ultima istanza, alla proposta 35 sulla promozione dell’innovazione digitale, (3) garantendo la supervisione umana e (8) l’uso affidabile e responsabile dell’IA, stabilendo salvaguardie e garantendo la trasparenza, e alla proposta 37 (3) sull’utilizzo dell’IA e degli strumenti digitali per migliorare l’accesso dei cittadini alle informazioni, comprese le persone con disabilità.
Molte sono le garanzie previste per i sistemi di intelligenza artificiale usati per finalità generali, per esempio i limiti all’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine, il divieto ai sistemi di credito sociale, o per manipolare e sfruttare le vulnerabilità degli utenti, il diritto dei consumatori di presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
La nuova normativa contrasta la possibilità di applicare l’IA che mettono a rischio i diritti dei cittadini, quali, come detto sopra, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale, i sistemi di credito sociale (che rappresentano in sostanza algoritmi con il compito di classificare imprese e cittadini in base ai loro comportamenti), le pratiche di polizia predittiva (basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona), i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Permangono alcune eccezioni per le forze dell’ordine in alcune situazioni specifiche espressamente previste dalla legge.
Sono inoltre previsti obblighi per altri sistemi di IA ad alto rischio che potrebbero arrecare danni alla salute, alla sicurezza, , all’ambiente, alla democrazia e allo Stato di diritto, ai diritti fondamentali (istruzione e formazione professionale, occupazione, servizi pubblici e privati di base, quali assistenza sanitaria, banche, ecc.), migrazione e gestione delle frontiere, giustizia e processi democratici (come le elezioni).
I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore e dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.
Sono previsti per i Paesi dell’UE sistemi che possano rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (sandbox), per l’innovazione e l’addestramento delle PMI e delle start-up. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Con questa legge l’Unione europea continua come sempre a rappresentare i propri valori mettendo al centro del proprio interesse l’essere umano e il cittadino con i suoi diritti e suoi valori di libertà e democrazia. Il cammino è arduo e irto di ostacoli ma è stato posto il primo tassello per guardare al futuro della tecnologia con più sicurezza e meno paure.
Foto di copertina: www.pixabay.com