Intelligenza artificiale, via libera del Parlamento europeo a nuove regole

(Adnkronos) – Il Parlamento Europeo ha approvato oggi a Strasburgo la legge sull'intelligenza artificiale, chiamata 'Ai Act'. Gli eurodeputati hanno approvato il regolamento, frutto dell'accordo raggiunto con gli Stati membri nel dicembre 2023, a larghissima maggioranza, con 523 voti favorevoli, 46 contrari e 49 astensioni. L'obiettivo, spiega l'Aula, è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di intelligenza artificiale ad alto rischio, promuovendo nel contempo l'innovazione. Il regolamento stabilisce obblighi per l'Ia sulla base dei possibili rischi e del livello d'impatto.  Le nuove norme, continua l'Aula, mettono fuori legge alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica, basati su caratteristiche sensibili e l'estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso, per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.  
In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche, previste dalla legge. L'identificazione "in tempo reale" potrà essere utilizzata solo se saranno rispettate alcune garanzie, ad esempio se l'uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l'autorizzazione giudiziaria dovrà essere collegata a un reato. Sono previsti obblighi anche per altri sistemi di intelligenza artificiale ad alto rischio (che potrebbero arrecare danni alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, eccetera), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi vige l'obbligo di valutare e ridurre i rischi, mantenere registri d'uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di Ia e a ricevere spiegazioni sulle decisioni basate su sistemi di Ia ad alto rischio che incidono sui loro diritti. I sistemi di Ia per finalità generali e i modelli su cui si basano, spiega ancora il Parlamento, dovranno soddisfare alcuni requisiti di trasparenza e rispettare le norme Ue sul diritto d'autore durante le fasi di addestramento. Per i modelli più potenti, che potrebbero comportare rischi sistemici, dovranno essere rispettati anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti 'deepfake') dovranno essere chiaramente etichettati come tali.  Il regolamento dovrà essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Deve ancora essere formalmente approvato dal Consiglio. La norma entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell'Ue e inizierà ad applicarsi 24 mesi dopo l'entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di Ia per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).  I Paesi dell'Ue dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che Pmi e start-up possano sviluppare sistemi di intelligenza artificiale innovativi e addestrarli, prima di immetterli sul mercato. "Dopo due anni intensi di lavoro – dice il correlatore della commissione per il Mercato interno Brando Benifei (S&D, Pd) – siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull'intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di Ia saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell'Ia".   —internazionale/esteriwebinfo@adnkronos.com (Web Info)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *