Cos’è l’AI ACT?
L’AI ACT è un regolamento europeo che punta a normare il campo dell’intelligenza artificiale, non solo dei sistemi di tipo generativo ma anche dei foundation models, ovvero i modelli di base di questi sistemi.
La proposta di legge di questo regolamento è stata approvata dal Parlamento europeo il 4 giugno 2023, con la rilevante maggioranza di 499 voti favorevoli contro i 28 contrari e 93 astenuti e la sua entrata in vigore è prevista tra il 2024 e il 2025. La maggioranza ottenuta in Parlamento ha aperto la strada per il trilogue, ed è stato uno degli ultimi step di votazioni che si sono tenute nelle singole istituzioni europee regolarmente.
Il regolamento dovrà quindi seguire il consueto iter di triangolazione (trilogue) con le altre istituzioni europee, il Consiglio, la Commissione e il Parlamento dell’Unione: per l’entrata in vigore, infatti, è necessaria una negoziazione tra le tre istituzioni europee per ottenere una versione finale e completa del testo normativo. Inoltre, la regolamentazione dovrà superare eventuali opposizioni e pareri sfavorevoli di alcuni stati, come la Germania e la Francia, i quali sostengono che con l’approvazione di una norma che regola uniformemente i sistemi di IA, si vada ad annullare la competitività dell’industria europea, mentre l’obiettivo dell’UE è quello di salvaguardare il mercato unico, eliminando la concorrenza interna e facendo dei sistemi di IA un’opportunità per l’economia europea, per fare dell’Europa un leader globale nel campo delle normative tecnologiche.
Gli obiettivi dell’AI ACT
Tra gli obiettivi del Regolamento vi è quello di garantire sistemi più sicuri e trasparenti per gli individui, le aziende e per la società. Tra l’altro, all’interno dello stesso AI ACT, sono contenute procedure ed indicazioni per la sua applicazione da parte delle aziende produttrici di questi sistemi.
Cosa prevede l’AI ACT?
L’AI ACT prevede una categorizzazione di tutti i sistemi di Intelligenza Artificiale in base al risk-based approach, un approccio che valuta il concreto rischio delle attività collegate all’utilizzo di tali sistemi.
Secondo questo modello, i sistemi di AI sono classificati in quattro categorie di rischio:
- Rischio inaccettabile;
- Rischio elevato;
- Rischio limitato;
- Rischio minimo o nullo.
Tale categorizzazione è ben definita all’interno del regolamento e non è suscettibile di valutazione da parte degli utenti.
I sistemi di Intelligenza Artificiale che potrebbero compromettere la personalità di individui o potrebbero manipolare gruppi di individui vulnerabili, sono definiti a rischio inaccettabile e sono vietati dall’Unione Europea. Tra questi rientrano, ad esempio, sistemi di intelligenza artificiale che permettono di definire un sistema di categorizzazione sociale da parte dei governi: il social scoring. Attraverso questo sistema, gli individui sono controllati e valutati in base alle loro azioni, il che può influire sulla personalità, che potrebbe essere fortemente condizionata dalla necessità di acquisire più punti sociali.
Alcune eccezioni potrebbero essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza potrebbero essere consentiti per perseguire reati gravi e solo con l’autorizzazione del tribunale.
Ad alto rischio invece sono considerati tutti i sistemi di intelligenza artificiale che possono minacciare la sicurezza degli individui o violarne i diritti fondamentali. In questi rientrano tutti i sistemi di AI utilizzati nel campo delle infrastrutture che possono costituire un rischio per l’ambiente e di conseguenza creare situazioni di pericolo per gli individui. Da regolamento, per questa categoria di sistemi di AI è prevista la sospensione temporanea dal mercato, la modifica e la verifica di conformità dei prodotti alla legge e successivamente la reintegrazione sul mercato. In questa categoria rientrano Sistemi di AI utilizzati: in campo sanitario, come robot che assistono determinate prestazioni; in procedure di assunzione, i software di selezione dei curriculum vitae; nell’ambito della gestione delle migrazioni e dell’asilo, i sistemi di AI che vengono utilizzati per verificare l’autenticità dei documenti.
È consentito il libero utilizzo dei sistemi di AI definiti a rischio limitato o a rischio minimo o nullo.
Sono considerati a rischio limitato o a rischio minimo o nullo i sistemi di AI generativa, come chat GPT, Bard che presuppongono un input umano per generare contenuti di qualsiasi tipo ma che non possono mettere a rischio la vita degli individui o violare diritti fondamentali; il rischio più alto nel loro utilizzo è la generazione di contenuti non veritieri e per questo oggetto di altre valutazioni di tipo giuridico da parte di altre autorità come quelle per la tutela dei dati personali.
Il regolamento, inoltre, vieta l’utilizzo di analisi biometriche in contesti educativi e lavorativi. Tale utilizzo, infatti, vìola i diritti fondamentali dell’individuo poiché identifica persone sulla base di una o più caratteristiche fisiologiche e comportamentali, confrontandole con dati precedentemente acquisiti e presenti nel database del sistema tramite degli algoritmi e rilevati tramite dei sensori di acquisizione dei dati in input.
Le indicazioni per le aziende
L’AI ACT oltre a regolamentare, dà delle direttive anche alle imprese produttrici di questi sistemi. Queste ultime dovranno attenersi a determinate regole:
- i loro sistemi dovranno essere sicuri, questo presuppone una documentazione tecnica sempre disponibile.
- I prodotti dovranno essere valutati secondo i parametri previsti dal regolamento ed avere un bollino CE di conformità; successivamente i prodotti saranno monitorati nel post-vendita per individuarne eventuali criticità.
- Le aziende dovranno conservare e rendere facilmente accessibile tutta la documentazione prodotta per le valutazioni di conformità alle autorità nazionali che saranno incaricate delle attività di vigilanza.
- I sistemi dovranno essere sottoposti a una supervisione umana, per non essere vittime del web scraping, una tecnica di profilazione dei dati di cui molto spesso l’AI ne fa uso per raccogliere informazioni dal web. A tal proposito la norma prevede che l’azienda dovrà fornire una sintesi pubblica di questi dati e specificare la natura dei dati prodotti.
Alle aziende verrà dato un lasso di tempo dall’entrata in vigore della norma per conformare i loro prodotti alla legge.
Gli Stati Uniti
Il Governo americano non ha messo a punto nessun tipo di regolamentazione in campo dei sistemi di AI; nonostante questo sono emersi diversi punti di vista riguardo tale tema. Le posizioni più note sono quella dei senatori Blumenthal e Hawley che hanno difatti elaborato uno schema di proposta normativa e quella del senatore Chuck Schumer che ha avviato un procedimento consultivo.
La proposta di Blumenthal e Hawley si presenta come un punto iniziale fondamentale per la creazione di una regolamentazione vera e propria sull’intelligenza artificiale, poiché contempla un quadro normativo basato sulla proposta di alcune specifiche scelte strategiche, ovvero:
- la creazione di un’Autorità di vigilanza indipendente, che avrà il compito di vigilare e monitorare gli sviluppi tecnologici e gli impatti economici dell’AI. Tutte le aziende produttrici di sistemi di Ai dovranno registrarsi presso questo organismo.
- la non applicazione ai sistemi Intelligenza Artificiale della sezione 230, un paragrafo di una legge varata nel 1996 che regolamenta la pubblicazione dei contenuti online e aveva lo scopo di tutelare i proprietari dei siti web e piattaforme dalla responsabilità di quanto veniva pubblicato dagli utenti terzi sulle loro pagine. Non applicando la legge ai sistemi di AI, questi sono considerate responsabili dei contenuti stessi e sottoposti alle norme.
- Controllo dell’esportazione e dell’importazione di sistemi di intelligenza artificiale avanzati verso Cina e Russia o altri Paesi coinvolti in violazioni di diritti umani.
Il senatore Chuck Schumer avrebbe intenzione di richiedere una legislazione completa sui sistemi di AI, ma nel frattempo ha tenuto un forum con tutti i top manager delle aziende del settore in cui sono scaturiti diversi punti di vista: da una parte alcuni ritenevano che ci fosse bisogno di un freno regolatore per i sistemi di Intelligenza artificiali, altri ritenevano che l’intelligenza artificiale necessiti di una supervisione umana.
La Cina
La Cina nel campo dello sviluppo dei sistemi di intelligenza artificiale ha come obiettivo di far diventare Pechino un first mover advantage, cioè entrare nel mercato dei sistemi di AI con innovazioni rilevanti rispetto alla concorrenza di Stati Uniti ed Europa.
La Cina come l’Unione Europea ha messo a punto una regolamentazione nel campo della IA, il cui approccio è l’opposto di quello adottato in Europa attraverso l’AI ACT. IL regolamento cinese punta a regolare e modificare gli algoritmi ed a rendere competitivi i propri sistemi; l’AI ACT tende invece a fornire linee guida per l’utilizzo di questa nuova tecnologia garantendo trasparenza, sicurezza e privacy per l’individuo, dando la possibilità di utilizzare i sistemi di AI nel rispetto dei diritti civili.
Il governo cinese vuole obbligare le Big Tech del Paese a fornirgli informazioni sulle tecnologie che alimentano le loro piattaforme, soprattutto laddove si tratti di algoritmi capaci di condizionare scelte e opinioni. Infatti, il governo ha incaricato le autorità di vigilanza di arginare gli effetti negativi degli algoritmi, come la diffusione di informazioni dannose, la violazione della privacy degli utenti. Il regolamento richiede anche l’uso di algoritmi per promuovere contenuti che spingono l’opinione pubblica a favore del Partito Comunista.
Il tredici luglio 2023 la Cyberspace Administration of China, il principale sistema di controllo e censura di Internet del Paese, ha pubblicato le linee guida per regolamentare il settore dei sistemi di intelligenza artificiale generativa. Il quindici agosto 2023 sono entrate in vigore le misure provvisorie per la gestione dei servizi di questi sistemi.
L’obiettivo di queste norme è quello di incoraggiare all’uso dell’AI generativa in diversi settori generando contenuti di alta qualità, sostenendo istituti di formazione e imprese che contribuiscono allo sviluppo e all’innovazione dei sistemi di IA. I principali obblighi in esse previsti, a cui i fornitori devono sottostare, sono:
- sottoporre i propri prodotti a revisioni di sicurezza e registrare i propri algoritmi presso i registri del governo.
- Gli algoritmi dei Sistemi di AI devono essere conformi al regolamento relativo alla gestione delle raccomandazioni sugli algoritmi dei servizi di informazione su Internet, emanato in Cina nel 2022.
La regolamentazione cinese prevede un diritto di proprietà intellettuale ed etica commerciale per evitare il monopolio o la concorrenza sleale interna elaborando i dati in maniera lecita.
Una questione di Governance globale
Le questioni analizzate in precedenza, rilevando i diversi approcci normativi da parte delle principali economie globali, si riverberano e vengono esaminate nel documento “Global AI governance: barriers and pathways forwardʺ a cura di Huw Roberts, Emmie Hine, Mariarosaria Taddeo e Luciano Floridi, di cui trattiamo in questo capitolo.
Come riportato nel testo citato “[…] poiché questi sistemi possono essere applicati a vari compiti, c’è stata una rapida adozione sia da parte dei singoli consumatori che delle aziende. ChatGPT di OpenAI, una chatbot basato sui modelli base GPT-3.5 e GPT-4 dell’azienda, è diventata l’applicazione Internet consumer in più rapida crescita di sempre (Marcus & Reuel, 2023) […]”.
Questa rapida evoluzione tecnologica e commerciale pone gli studiosi, i giuristi e gli esperti di altre discipline di fronte alla necessità di individuare criteri che possano trascendere i diversi interessi nazionali “[…] senza un’unica autorità sovrana, in modo che possa essere intrapresa un’azione cooperativa per massimizzare i benefici e mitigare i rischi dell’IA (Finkelstein, 1995; Weiss, 2000) […]”.
Gli esperti descrivono i presupposti per istituire una governance globale sull’AI e analizzano i problemi di cooperazione tra i vari Stati coinvolti che ostacolano la realizzazione di una autorità globale “[…]Le proposte su come potrebbe apparire un nuovo organismo internazionale per l’intelligenza artificiale in genere si ispirano a organismi esistenti come il Gruppo internazionale sui cambiamenti climatici (IPCC) e le Agenzie internazionali per l’energia atomica (AIEA).(Bak-Coleman et al., 2023; Chowdhury, 2023; Ho et al., 2023; Marcus & Reuel, 2023; Samson, 2023) […]”.
Nel documento vengono descritti tutti i presupposti per la creazione di un’istituzione globale rilevando che esistono già iniziative intergovernative che pongono le basi per una vera e propria normativa globale sui sistemi di AI, come la raccomandazione AI dell’UNESCO che delinea dei principi che sono simili a quelli dell’OCSE. I paesi dell’OCSE e del G20 rappresentano la gran parte dello sviluppo mondiale dell’IA, per cui hanno già concordato alcuni principi etici, escludendo, di fatto, in questa fase, i paesi al di fuori di tali organismi.
Parallelamente a iniziative intergovernative esistono iniziative da parte dei privati che puntano a una cooperazione che ha come obbiettivo principale il trarre profitto per le loro aziende: “[…] La Partnership on AI (PAI) è stata fondata nel 2016 come organizzazione senza scopo di lucro composta da aziende “Big Tech”, che finanziano prevalentemente l’organizzazione e da parti interessate della società civile e del mondo accademico. […]
La natura innovativa dei sistemi di AI che è portatrice di problematiche nuove, diverse ed in continuo sviluppo, non può prendere spunto da governance globali già esistenti, come quelle che si occupano di clima e di armi nucleari.
Gli esperti categorizzano i di problemi di cooperazione su AI in problemi di primo e di secondo livello.
“[…]I problemi di cooperazione di primo ordine derivano dall’anarchia internazionale, con il sistema privo di un’autorità sovrana per far rispettare gli accordi tra gli attori statali. In questo contesto di incertezza, gli stati si percepiscono minacciati da altri attori statali, creando una condizione di insicurezza. Ciò porta gli Stati ad aumentare le proprie capacità di contrastare le minacce percepite (Cerny, 2000). […]”
Infatti, come abbiamo evidenziato in precedenza, l’Europa vede i sistemi di intelligenza artificiale come un’opportunità per affermarsi nel mercato, la Cina attribuisce ai sistemi di intelligenza artificiale una duplice funzione militare-civile. Queste diverse concezioni di utilizzo dell’Ai hanno portato ad un forte competizione tra leader globali, in particolare gli statunitensi che hanno assunto posizioni aggressive nei confronti della Cina “[…] introducendo controlli sulle esportazioni di semiconduttori che cercano di ostacolare lo sviluppo dell’intelligenza artificiale in Cina (Schulz, 2022), promuovendo al contempo la produzione interna di semiconduttori (The White House, 2023). […]”
I problemi di coordinamento di secondo ordine hanno una diversa natura: sono causati da una disfunzione istituzionale. In seguito alla Seconda Guerra mondiale sono nate numerose istituzioni a livello globale che si sono occupate di problemi che prima erano di competenza statale, portando a un forte coordinamento tra stati. Ma il successo dell’istituzionalizzazione ha portato delle difficoltà nella cooperazione globale. “[…] Sebbene siano emerse nuove istituzioni internazionali per affrontare nuovi problemi politici, ciò ha probabilmente esacerbato la frammentazione istituzionale e la sovrapposizione dei mandati, limitando l’efficacia dei regimi (Hale et al., 2013)[…]” . I problemi di coordinamento di secondo ordine hanno avuto delle ripercussioni sulla creazione di una governance globale dell’AI; infatti, ad oggi la capacità di regolare e sviluppare regolamenti in campo dell’AI è circoscritta all’UE, USA e Cina e basterebbe un accordo tra di essi per creare una governance globale. Il che è molto complicato, visto che il tema dell’AI abbraccia molte tematiche politiche che non permettono un accordo internazionale. “[…] La frammentarietà del panorama internazionale dell’AI pone ulteriori problemi di cooperazione, in quanto consente a Paesi e aziende di seguire politiche e standard diversi per l’IA (Cihon et al., 2020) […]”
In termini di fattibilità, per creare una governance globale c’è bisogno innanzitutto dì un forte coordinamento tra organismi internazionali, poi concordare le competenze dei vari enti e gli obiettivi da perseguire.
“[…]Per un lavoro di governance dell’IA ad alto valore, le istituzioni devono essere inclusive e responsabili. In caso contrario, la legittimità del lavoro potrebbe essere messa in discussione e i risultati potrebbero essere indesiderabili (Keohane & Victor, 2011) […]”
In conclusione, nel documento di riferimento, gli esperti offrono raccomandazioni per rafforzare i regimi globali esistenti, facendo il paragone con la governance globale del clima che ha portato con sé numerosi fallimenti rilevando che da questa esperienza bisognerebbe trarre insegnamenti, e l’organo consultivo di alto livello delle Nazioni Unite sull’AI dovrebbe spostare il focus della discussione verso il rafforzamento di regimi già esistenti.
Laureata in culture digitali della comunicazione all’Università degli studi di Napoli Federico II. Appassionata al mondo della comunicazione digitali e tutte le innovazioni che essa propone.
Tirocinante presso Interskills Media e formazione, si occupa dell’analisi e stesura di contenuti per il Web in coordinamento con il Chief Eidtor.
Pingback: Le norme europee per l’AI nello scenario globale: AI Act – Interskills Formazione professionale
Pingback: L’Executive Order di Biden: il primo regolamento americano sull’IA – Interskills Formazione professionale
Pingback: AI Act in dirittura d’arrivo – Interskills Media Company
I commenti sono chiusi.