Un breve riepilogo dei tentativi europei di disciplinare l’Intelligenza Artificiale (IA). Nei primi mesi del 2018 (sei anni fa), dopo una complessa consultazione pubblica, viene costituito un High-level Expert Group di 52 persone che, due anni dopo, contribuisce a produrre un ‘libro bianco’ aperto anch’esso a un ampio commento. Omisso medio, la Commissione Europea nell’aprile del 2021 avanza una propria proposta, basata sul principio del rischio: maggiori i rischi nell’uso dei sistemi di IA (si badi, nell’uso e non nelle loro intrinseche caratteristiche), più rigorosa la disciplina. L’8 dicembre 2023, dopo una discussione che sembra abbia vissuto momenti di difficoltà, addirittura con l’allontanamento temporaneo dal tavolo del confronto della delegazione del Parlamento, viene finalmente raggiunto a conclusione del previsto trilogo un ‘accordo politico’ tra Commissione, Parlamento e Consiglio dell’Unione Europea.
Al momento, dopo più di 50 giorni dalla storica intesa, non si conosce il risultato ufficiale di tale accordo che avrebbe dovuto essere solo sottoposto, come detto da qualcuno, a una semplice operazione di drafting. Un drafting peraltro certamente complesso, visto che dovrebbe trattarsi di un testo che, in base a una bozza pirata che abbiamo potuto esaminare, si compone al momento di quasi 120 considerata iniziali, di oltre 90 lunghissimi articoli (il comma 2 dell’articolo 2, ad esempio, ha circa 80 complicate lettere, e non è il solo), di una decina di ‘annessi’: una gioia, ci si consenta dirlo, per chi dovrà applicarlo e per chi dovrà quindi farlo rispettare. Per conoscere il risultato finale di questo non facile lavoro ci si può al momento fondare solo sui comunicati stampa, sulle ricostruzioni di coloro che hanno partecipato alle trattative e, come detto, su bozze pirata.
Non vogliamo qui entrare nel merito delle questioni che, in base alle notizie emergenti, sembra stiano rallentando la definizione del testo. Esse partono quasi tutte dall’ormai radicato conflitto tra chi, come il Parlamento Europeo, pone in primo piano la tutela dei diritti individuali e collettivi di fronte all’IA, e quei paesi che all’interno della Commissione e del Consiglio (Francia, Germania e sembra anche il nostro) sostengono invece la necessità di una normativa più elastica che sappia coniugare la richiamata tutela dei diritti con lo sviluppo tecnologico: a cominciare dalla stessa definizione dell’intelligenza artificiale. E ciò specialmente in presenza di nazioni che, a volte con estrema decisione, non pongono limiti normativi espressi ma preferiscono adottare indirizzi e linee guida per la produzione e l’utilizzo dell’IA, accompagnati da finanziamenti cospicui.
Avremo modo di tornare su questi temi, e anche sui contrasti richiamati, quando avremo finalmente un testo ufficiale. Vogliamo qui solo ricordare le scadenze temporali che in ogni caso dovranno accompagnare la normativa, riservandoci poi un commento finale.
L’entrata in vigore è prevista 20 giorni dopo la pubblicazione sul Journal Officiel de l’Union; le norme sulle pratiche proibite saranno effettive 6 mesi dopo; quelle sull’intelligenza artificiale con finalità generali (GPAI) 12 mesi; l’Atto nel suo complesso 24 mesi dopo, quindi nel 2026: ben otto anni, come sopra ricordato, dall’inizio del processo che dovrebbe finalmente condurre alla normativa in corso di definizione.
Va sottolineato che una delle ragioni che hanno contribuito a determinare il ritardo dell’iter legislativo è stato il rapido sviluppo tecnologico nella ricerca e nell’applicazione dell’IA: facciamo ad esempio riferimento all’intelligenza artificiale generativa e ai foundation models, in particolare al lancio da parte di OpenAI, nella seconda metà del 2022, di ChatGPT, ben dopo l’inizio del processo legislativo europeo.
Achille e la tartaruga? Siamo proprio sicuri che il modo per rincorrere e disciplinare questo rivoluzionario strumento sia il ricorso a norme chilometriche, rigide e complicate che una ricerca scientifica in rapidissimo sviluppo rischia di rendere obsolete e inapplicabili nel giro di pochi mesi? O non è forse meglio l’esempio di chi, come Gran Bretagna e Stati Uniti, nel solco di un antico pragmatismo fa uso di un modello normativo e giudiziario che sa tutelare diritti e libertà; accompagnato da indirizzi capaci di guidare e indirizzare la ricerca, senza tuttavia costringerla entro limiti che lo sviluppo tecnologico renderà presto obsoleti e inapplicabili?
Sappiamo bene che non è una scelta facile, e che comprensibili sono le preoccupazioni, etiche e giuridiche, di chi giustamente teme i rischi di uno strumento dalle enormi potenzialità ma dagli altrettanto elevati rischi: per le persone e per i sistemi sociali.
Il pericolo che paventiamo, e ci auguriamo di essere smentiti, è però che un corpus normativo assai consistente, di centinaia di articoli frutto come detto di complicati compromessi, più che chiarezza generi confusione e conflittualità nella sua applicazione: tra gli organismi dell’Unione deputati ad applicarlo e i singoli stati; tra i produttori interni e quelli internazionali; sui mercati e tra i cittadini utilizzatori. Allontanando quindi, piuttosto che favorendo, la prospettiva di una credibile e affidabile IA europea.
Mentre, come la cronaca quotidianamente ci racconta, società di ricerca, produzione e commercializzazione di dimensioni pluristatuali creano strumenti la cui natura e i cui effetti sembrano sfuggire al controllo di modelli normativi di millenaria origine; strumenti che stati autoritari e senza scrupolo sono pronti a utilizzare, ignorando qualsiasi ipotesi di controllo interno o di intesa sovranazionale.
Un quadro che proprio l’arrancare dell’incerto processo normativo europeo rende oggi ancora più fosco.
Lascia un commento