Abbiamo letto nei giorni scorsi positive, a volte entusiastiche, dichiarazioni di politici e osservatori a seguito dell’approvazione da parte del Parlamento Europeo, il 13 marzo, del Regolamento europeo sull’intelligenza artificiale – EU’s AI Act.
Il cammino è stato lungo: tralasciando le fasi preliminari che possiamo far risalire a oltre sei anni fa, la proposta della Commissione è del 21 aprile 2021; la posizione del Consiglio è stata resa nota nel dicembre del 2022, quella del Parlamento nel giugno 2023; l’accordo politico, a conclusione del trilogo, è stato raggiunto l’8 dicembre 2023; il voto del Parlamento è appunto del 13 marzo 2024. Mentre a Bruxelles si discuteva, la tecnologia andava avanti – si pensi a ChatGPT e simili – costringendo i legislatori a una non facile e a volte affannata rincorsa.
Non è però ancora finita: dopo alcuni ulteriori passaggi di drafting e la definitiva approvazione da parte del Consiglio, occorrerà attendere la pubblicazione nel Journal Officiel dell’Unione – aprile-maggio – e, 20 giorni dopo, l’AI Act entrerà finalmente in vigore. Con uno scadenzario assai complicato, non lo vogliamo qui riportare nei dettagli, che va dai sei mesi ai sei anni dopo l’entrata in vigore, in relazione alla tipologia delle disposizioni.
L’approccio europeo è, come noto, basato sui rischi: più alti i rischi più rigorosa la disciplina e più rilevanti le sanzioni. E avremo allora rischi inaccettabili e quindi proibiti, come quelli che sfruttano le vulnerabilità dei soggetti cui si rivolgono, utilizzano tecniche subliminali, categorizzano gli individui in base a razza, orientamenti di genere, opinioni e convinzioni politiche o religiose; rischi considerati invece gravi – high risks –, derivanti dall’uso di componenti che gestiscono infrastrutture digitali critiche, o che decidono in base ai loro algoritmi assunzioni o licenziamenti oppure la concessione o meno di benefici sociali, o ancora interferiscono sull’amministrazione della giustizia e nel processo democratico; sono poi indicati i rischi invece limitati, senza conseguenze lesive per la salute, la sicurezza e i diritti fondamentali degli individui. Non possiamo poi non ricordare la presenza di disposizioni a tutela del copyright e per contrastare la diffusione di notizie non vere – fake news – ; nonché la disciplina, oggetto di un non facile compromesso, della General Purpose Artificial Intelligence – GPAI, intelligenza artificiale con finalità generali –, che ha visto il legislatore europeo quasi ‘rincorrere’ lo sviluppo tecnologico.
Tutto bene? É l’augurio comune: una tecnologia come quella dell’intelligenza artificiale non può assolutamente non essere disciplinata. La discussione va invece spostata sui modi di tale regolazione, sugli strumenti per attuarla, sull’apparato di governance e sanzionatorio creato per assicurarne il funzionamento.
Sono temi sui quali ci riproponiamo di tornare in modo più diffuso: vogliamo qui soltanto fare alcune preliminari, e certamente non complete, osservazioni.
L’intenzione del legislatore è quella di ripercorrere la strada seguita con il GDPR, che ha costituito un benchmark non solo per le imprese europee ma anche per tutte quelle non europee che intendevano muoversi in Europa. Così chi vorrà da oggi introdurre i propri prodotti o i propri servizi nel campo dell’intelligenza artificiale dovrà adeguarsi alla nuova disciplina dell’Unione, in base anche questa volta a un principio di extraterritorialità.
Un approccio, quello europeo, per molti eccessivamente complicato: 300 pagine il testo finale e 900 quello a fronte che compara le proposte di Commissione, Consiglio e Parlamento, essenziale per comprendere la genesi delle proposte; ben 120 i considerata, ciascuno con un rilevante valore interpretativo; oltre 90 lunghi articoli – ad esempio, l’articolo 3 è suddiviso in 80 numeri e lettere – ; una decina gli annessi. Saranno forse inevitabili complesse questioni interpretative e applicative, alla luce dei potenziali conflitti tra produttori, utilizzatori, imprese e utenti finali anche extraeuropei; nonché delle sovrapposizioni tra autorità sovranazionali e nazionali, entrambe rappresentate nel modello di governance.
Questo approccio, che privilegia norme cogenti e una forte struttura di governo e sanzionatoria, è diverso da quello adottato in altri paesi. Senza voler qui operare una comparazione approfondita, Stati Uniti e Regno Unito sembrano al momento orientati verso un percorso non immediatamente normativo, che privilegia invece strumenti di indirizzo e di persuasione – anche attraverso forti incentivi – tra i produttori, gli operatori e i fruitori, cercando di favorire intese fra i soggetti interessati e puntando su istituzioni e agenzie già esistenti per guidare e controllare i processi di sviluppo. In questo senso vanno sia l’Ordine Esecutivo di Biden dello scorso ottobre, che il Libro Bianco inglese del marzo 2023.
È naturalmente indubbia la necessità di regolare l’intelligenza artificiale, anche per rispondere a preoccupazioni, a volte non sempre giustificate, sui rischi che essa pone. Ciò che si vuole invece discutere è la validità dell’approccio europeo, e l’effettiva idoneità degli strumenti di governo e sanzionatori creati. Anche qui ci proponiamo di approfondire l’analisi non appena la nuova disciplina sarà entrata in vigore.
Un’ultima osservazione: la normativa approvata esclude in maniera esplicita la possibilità di una sua applicazione al settore militare e della difesa. È una scelta comprensibile, vista la storica, gelosa e radicata competenza dei singoli stati in materia, salvo condivisi, ma spesso non rispettati, accordi internazionali.
Lo sviluppo dei sistemi d’arma letali autonome – Lethal Autonomous Weapons – basati sull’intelligenza artificiale, che abbiamo visto sempre più utilizzati nei conflitti di questi ultimi anni, non rende però possibile ignorare ulteriormente il tema: insieme a quello, a esso connesso, degli strumenti attraverso i quali far rispettare le eventuali limitazioni adottate. È una questione certamente complessa con forti implicazioni etiche ma, senza affrontarla, le preoccupazioni che accompagnano lo sviluppo dell’intelligenza artificiale potranno trovare alimento nei pericoli reali che l’uso di strumenti di guerra, coadiuvati dall’intelligenza artificiale, può comportare.
E favorire quindi reazioni di paura e ostilità verso una tecnologia che, certamente guidata come tutti i ricordati paesi stanno cercando di fare, può contribuire alla soluzione di tanti, attuali problemi.
Lascia un commento