Regolamento sull’intelligenza artificiale: Consiglio e Parlamento Europei raggiungono un accordo sulle prime regole al mondo per l’IA
Dopo una “maratona” di colloqui di 3 giorni, la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta relativa a regole armonizzate sull’intelligenza artificiale (IA), il cosiddetto regolamento sull’intelligenza artificiale. Il progetto di regolamento mira ad assicurare che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. La storica proposta punta inoltre a stimolare gli investimenti e l’innovazione in materia di IA in Europa.
Si tratta di un risultato storico e di una pietra miliare per il futuro! L’accordo odierno affronta efficacemente una sfida globale in un contesto tecnologico in rapida evoluzione che interessa un settore chiave per il futuro delle nostre economie e società. Nel nostro operato siamo riusciti a mantenere un equilibrio estremamente delicato: stimolare l’innovazione e l’adozione dell’intelligenza artificiale in tutta Europa nel pieno rispetto dei diritti fondamentali dei nostri cittadini.
Carme Artigas, sottosegretaria di Stato spagnola per la Digitalizzazione e l’intelligenza artificiale
Il regolamento sull’IA è un’iniziativa legislativa faro che ha il potenziale di promuovere lo sviluppo e l’adozione, da parte di attori sia pubblici che privati, di un’IA sicura e affidabile in tutto il mercato unico dell’UE. L’idea principale è quella di regolamentare l’IA sulla base della capacità di quest’ultima di causare danni alla società seguendo un approccio “basato sul rischio”: tanto maggiore è il rischio, quanto più rigorose sono le regole. In quanto prima proposta legislativa di questo tipo al mondo, può fissare uno standard globale per la regolamentazione dell’IA in altre giurisdizioni, come ha fatto il regolamento generale sulla protezione dei dati, promuovendo in tal modo l’approccio europeo alla regolamentazione della tecnologia sulla scena mondiale.
I principali elementi dell’accordo provvisorio
Rispetto alla proposta iniziale della Commissione, i principali nuovi elementi dell’accordo provvisorio possono essere sintetizzati come segue:
- regole sui modelli di IA per finalità generali ad alto impatto che possono comportare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio
- un sistema di governance riveduto con alcuni poteri di esecuzione a livello dell’UE
- ampliamento dell’elenco dei divieti, ma con la possibilità di utilizzare l’identificazione biometrica remota da parte delle autorità di contrasto negli spazi pubblici, fatte salve le tutele
- una migliore protezione dei diritti tramite l’obbligo per gli operatori di sistemi di IA ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali prima di utilizzare un sistema di IA
In termini più concreti, l’accordo provvisorio riguarda i seguenti aspetti:
Definizioni e ambito di applicazione
Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l’IA da sistemi software più semplici, l’accordo di compromesso allinea la definizione all’approccio proposto dall’OCSE.
L’accordo provvisorio chiarisce inoltre che il regolamento non si applica a settori che non rientrano nell’ambito di applicazione del diritto dell’UE e non dovrebbe, in ogni caso, incidere sulle competenze degli Stati membri in materia di sicurezza nazionale o su qualsiasi entità competente in questo ambito.
Inoltre, il regolamento sull’IA non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa.
Analogamente, l’accordo prevede che il regolamento non si applichi ai sistemi di IA utilizzati solo a scopo di ricerca e innovazione o alle persone che utilizzano l’IA per motivi non professionali.
Classificazione dei sistemi di IA come ad alto rischio e pratiche di IA vietate
L’accordo di compromesso stabilisce un livello orizzontale di protezione, compresa una classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di IA che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi.
I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio rendere noto che il contenuto è stato generato dall’IA, affinché gli utenti possano prendere decisioni informate in merito all’ulteriore utilizzo.
Un’ampia gamma di sistemi di IA ad alto rischio sarebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere accesso al mercato dell’UE.
Tali requisiti sono stati chiariti e adeguati dai colegislatori, in modo tale da renderli tecnicamente più realizzabili e meno onerosi per i portatori di interessi, ad esempio per quanto riguarda la qualità dei dati, o in relazione alla documentazione tecnica che le PMI dovrebbero redigere per dimostrare che i loro sistemi di IA ad alto rischio sono conformi ai requisiti.
Poiché i sistemi di IA sono sviluppati e distribuiti attraverso catene del valore complesse, l’accordo di compromesso comprende modifiche che chiariscono l’assegnazione delle responsabilità e i ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti di sistemi di IA.
Chiarisce inoltre il rapporto tra le responsabilità a titolo del regolamento sull’IA e le responsabilità già esistenti in virtù di altri atti legislativi, come la pertinente normativa dell’UE in materia di protezione dei dati o la normativa settoriale.
Per alcuni usi dell’IA, il rischio è considerato inaccettabile, pertanto tali sistemi saranno vietati dall’UE.
L’accordo provvisorio vieta, ad esempio, la manipolazione comportamentale cognitiva, lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l’orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.
Eccezioni a fini di attività di contrasto
Tenuto conto delle specificità delle autorità di contrasto e della necessità di preservarne la capacità di utilizzare l’IA nel loro lavoro vitale, sono state concordate diverse modifiche alla proposta della Commissione relative all’uso dei sistemi di IA a fini di attività di contrasto.
Fatte salve le tutele adeguate, tali modifiche mirano a tenere conto della necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività.
Ad esempio, è stata introdotta una procedura di emergenza che consente alle autorità di contrasto di utilizzare uno strumento di IA ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza.
È stato tuttavia stabilito anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi dei sistemi di IA.
Inoltre, per quanto riguarda l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, l’accordo provvisorio chiarisce le situazioni nelle quali tale uso è strettamente necessario a fini di contrasto e nelle quali le autorità di contrasto dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi.
L’accordo di compromesso prevede ulteriori tutele e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come attacchi terroristici, e alla ricerca di persone sospettate dei reati più gravi.
Sistemi di IA per finalità generali e modelli di base
Sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per finalità generali) e di quelle in cui la tecnologia di IA per finalità generali è successivamente integrata in un altro sistema ad alto rischio.
L’accordo provvisorio tratta anche i casi specifici dei sistemi di IA per finalità generali.
Sono state inoltre concordate regole specifiche per i modelli di base, i grandi sistemi in grado di svolgere con competenza un’ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici.
L’accordo provvisorio prevede che i modelli di base debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato.
È stato introdotto un regime più rigoroso per i modelli di base “ad alto impatto”.
Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.
Una nuova architettura di governance
A seguito delle nuove regole sui modelli di IA per finalità generali e dell’evidente necessità di una loro applicazione a livello dell’UE, è istituito un ufficio per l’IA all’interno della Commissione incaricato di supervisionare questi modelli di IA più avanzati, contribuire a promuovere norme e pratiche di prova e far rispettare le norme comuni in tutti gli Stati membri.
Un gruppo scientifico di esperti indipendenti fornirà consulenza all’ufficio per l’IA in merito ai modelli di IA per finalità generali, contribuendo allo sviluppo di metodologie per valutare le capacità dei modelli di base, fornendo consulenza sulla designazione e l’emergere di modelli di base ad alto impatto e monitorando i possibili rischi materiali di sicurezza connessi ai modelli di base.
Il comitato per l’IA, composto da rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e attribuirà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di buone pratiche per i modelli di base.
Infine, sarà istituito un forum consultivo per i portatori di interessi, quali i rappresentanti dell’industria, le PMI, le start-up, la società civile e il mondo accademico, al fine di fornire competenze tecniche al comitato per l’IA.
Sanzioni
Le sanzioni pecuniarie per le violazioni del regolamento sull’IA sono state fissate in percentuale del fatturato annuo globale nell’esercizio finanziario precedente della società che ha commesso il reato o, se superiore, in un importo predeterminato.
Ciò ammonterebbe a 35 milioni di EUR, o il 7% per le violazioni relative ad applicazioni di IA vietate, 15 milioni di EUR o il 3% per violazioni degli obblighi del regolamento sull’IA e 7,5 milioni di EUR o l’1,5% per la fornitura di informazioni inesatte.
Tuttavia, l’accordo provvisorio prevede massimali più proporzionati per le sanzioni amministrative pecuniarie per le PMI e le start-up in caso di violazione delle disposizioni del regolamento sull’IA.
L’accordo di compromesso chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo alla pertinente autorità di vigilanza del mercato riguardo alla non conformità con il regolamento sull’IA e può aspettarsi che tale reclamo sia trattato in linea con le procedure specifiche di tale autorità.
Trasparenza e protezione dei diritti fondamentali
L’accordo provvisorio prevede una valutazione d’impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio sia immesso sul mercato dai suoi operatori.
L’accordo provvisorio prevede inoltre una maggiore trasparenza per quanto riguarda l’uso dei sistemi di IA ad alto rischio. In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che alcuni utenti di un sistema di IA ad alto rischio che sono entità pubbliche saranno anche tenuti a registrarsi nella banca dati dell’UE per i sistemi di IA ad alto rischio.
Inoltre, nuove disposizioni pongono l’accento sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.
Misure a sostegno dell’innovazione
Allo scopo di creare un quadro giuridico più favorevole all’innovazione e promuovere un apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione.
In particolare, è stato chiarito che gli spazi di sperimentazione normativa per l’IA, che dovrebbero creare un ambiente controllato per lo sviluppo, le prove e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di testare sistemi di IA innovativi in condizioni reali.
Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di IA in condizioni reali, nel quadro di condizioni e tutele specifiche.
Al fine di alleggerire gli oneri amministrativi per le imprese più piccole, l’accordo provvisorio include un elenco di azioni che dovranno essere intraprese per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate.
Entrata in vigore
L’accordo provvisorio prevede che il regolamento sull’IA si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Prossime tappe
In seguito all’accordo provvisorio raggiunto oggi (9 dicembre 2023, n.d.r.), nelle prossime settimane proseguiranno i lavori a livello tecnico per definire i dettagli del nuovo regolamento.
La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper) per approvazione una volta conclusi i lavori.
Il testo integrale dovrà essere confermato da entrambe le istituzioni e sottoposto alla messa a punto giuridico-linguistica prima dell’adozione formale da parte dei colegislatori.
Informazioni generali
La proposta della Commissione, presentata nell’aprile 2021 è un elemento chiave della politica dell’UE volta a promuovere lo sviluppo e l’adozione, in tutto il mercato unico, di un’IA sicura e lecita che rispetti i diritti fondamentali.
La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico orizzontale uniforme per l’IA che mira ad assicurare la certezza del diritto.
Il progetto di regolamento mira a promuovere gli investimenti e l’innovazione nell’IA, a migliorare la governance e l’applicazione effettiva della normativa vigente in materia di diritti fondamentali e sicurezza e ad agevolare lo sviluppo di un mercato unico per le applicazioni di IA.
Va di pari passo con altre iniziative, compreso il piano coordinato sull’intelligenza artificiale, che punta ad accelerare gli investimenti nell’IA in Europa.
Il 6 dicembre 2022 il Consiglio ha raggiunto un accordo su questo fascicolo per un orientamento generale (mandato negoziale) e ha avviato colloqui interistituzionali con il Parlamento europeo (“triloghi”) a metà giugno 2023.
Fonte: https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/
Trascritto da Carlo Makhloufi Donelli
Di intelligenza artificiale avevamo parlato anche qui:
https://ita.li.it/2023/01/09/lintelligenza-artificiale-usa-la-sua-abilita-artistica-per-la-creazione-di-nuove-proteine-umane/