Secondo una recente ricerca dell’Economist, le imprese in Europa spendono circa 150 milioni l’anno solo per compilare i moduli previsti dalla normativa dell’Unione; un regolamento di tre anni fa richiede alle maggiori società di riempire 1.155 «data points» relativi alle loro catene di approvvigionamento globale; tra il 2019 e il 2024 sono stati adottati complessivamente a Bruxelles quasi 14.000 atti normativi. Sono solo alcuni dei più evidenti effetti di quel processo che da anni spinge l’Unione ad intervenire pesantemente sul piano della regolazione, creando quel «Brussels effect» che voleva anche condizionare (si pensi al GDPR) l’ingresso delle imprese extracomunitarie nel continente al rispetto degli indirizzi e delle norme della stessa Unione. È ormai proverbiale l’affermazione: l’America inventa, l’Europa regola, la Cina copia (ma la Cina oggi inventa sempre di più, copia molto meno e, in particolare in settori d’avanguardia come i veicoli autonomi e la ricerca farmacologica, regola meno di una volta).
Lo scorso anno Mario Draghi aveva proposto una serie di misure di semplificazione, spostando l’ottica dalla tutela dei diritti a quella della ricerca, della produzione e della competitività. Qualche segnale di una maggiore attenzione al tema era stato dato negli anni scorsi, con la decisione (mai, tuttavia, compiutamente applicata) di togliere almeno un impedimento procedurale per ogni nuovo obbligo imposto.
Qualcosa sembra però si stia finalmente muovendo a Bruxelles, nella convinzione che vada trovato un equilibrio nuovo, ad esempio, tra la visione umanocentrica dell’AI Act e le esigenze di ricerca, sperimentazione ed utilizzo oggi frenate da un eccesso regolatorio: questo specialmente rispetto ai modelli americani ed asiatici che non conoscono i limiti autoimposti dall’Unione.
Già nel discorso inaugurale per il mandato 2024-2029 la presidente von der Leyen aveva posto al centro del suo programma, «Per una Europa più semplice e più veloce», la necessità di avere «meno pratiche burocratiche, meno duplicazioni procedurali, meno regole complicate».
E in questa prospettiva il 19 novembre scorso la Commissione europea ha reso nota una propria proposta dí regolamento, il Digital Omnibus Package, con il fine di armonizzare, e quindi semplificare, la legislazione digitale dell’Unione. Si tratta di due misure distinte: un Digital Omnibus, che verrebbe ad intervenire, tra l’altro, sul GDPR, sulla ePrivacy Directive, sulla Direttiva NIS2 e sul Data Act; e un Digital Omnibus on AI che vuole invece emendare l’EU AI Act.
Non vogliamo qui entrare nei dettagli della normazione proposta, che dovrà ora passare all’esame del Parlamento e del Consiglio, quanto piuttosto sul cambio di «filosofia» che la sottintende e sulle conseguenze che questo mutato orientamento potrà avere per il nostro paese che, come è noto, ha visto il 10 ottobre entrare in vigore una propria legge sull’IA (la n. 132/2025), primo tra quelli dell’Unione.
Soffermandoci sulla disciplina dell’intelligenza artificiale, il fine della Commissione appare quello di trovare, rispetto all’AI Act dello scorso anno, un equilibrio diverso tra normazione ed innovazione; tra la necessità di non abbandonare la tutela dei principi etici e di garanzia e quella di non frenare la ricerca, lo sviluppo e la commercializzazione. E questo nel confronto con paesi che, come sopra ricordato, conducono una aggressiva politica scientifica e commerciale anche per ragioni di confronto globale; ed alla luce della decisa deregulation nel campo dell’intelligenza artificiale portata avanti nei mesi scorsi dall’amministrazione Trump.
Per quanto riguarda i contenuti, l’Omnibus sulla IA si pone, tra gli altri, il fine di intervenire sui tempi di applicazione delle norme relative ai cosiddetti «rischi elevati»; sulla semplificazione delle prescrizioni post-market; sulla riduzione degli oneri di registrazione; sulla governance; sugli aiuti per assicurare alle imprese la conformità alla normativa; sulle procedure; sulla sicurezza informatica; sui dati, sulla privacy e sulle piattaforme; su una complessiva riduzione degli oneri burocratici.
L’impressione è però che più che di una deregulation si tratti di una dovuta e necessaria manutenzione procedurale. C’è certamente la consapevolezza dei problemi che sarebbero sorti ove si fosse dovuta applicare nei tempi originariamente previsti la precedente normativa; e della difficoltà che avrebbe comportato il ricorrere a procedure sanzionatorie che avrebbero posto una seria ipoteca sullo sviluppo di un settore in piena crescita in altri paesi.
Tuttavia si ha la sensazione che ci si trovi per ora davanti a semplici correzioni e rinvii, senza una convincente cornice che unifichi le misure proposte e la finalità degli interventi. Solo il 21 maggio 2024, poco più di un anno fa, è stato approvato l’EU AI Act: un passaggio considerato allora «epocale», ma che evidentemente con i suoi vincoli regolatori non ha saputo «leggere» i percorsi di sviluppo e di utilizzo dell’intelligenza artificiale. Creando quindi una normativa non solo di complessa, costosa e spesso contraddittoria attuazione, ma anche poco idonea a guidare i necessari processi di adeguamento ad una ricerca in rapidissimo sviluppo. Un risultato non positivo per tutti gli organi che sono intervenuti nel processo legislativo: Commissione, Parlamento e Consiglio. E per la stessa struttura di consulenza e supporto che ha guidato l’approvazione dell’AI Act. Questo cambio di direzione verso un «Washington effect» deregolatorio, risulta però oggi poco credibile, quasi necessitato più che voluto, privo di una indicazione convincente sul modello di sviluppo, alternativo a quello di una invasiva normazione, che si intende proporre.
Si pongono allora non facili problemi anche per il nostro paese. Come ricordato, il 10 ottobre scorso è entrata in vigore la nuova legge italiana sulla intelligenza artificiale. Una normativa che si colloca nel solco della disciplina europea di un anno e mezzo fa, accentuandone gli aspetti regolatori. Anche qui non vogliamo entrare nei dettagli ma, in un momento in cui nell’Unione è in corso una significativa riflessione sui contenuti e sulla metodologia della legislazione sulla IA, l’aver voluto essere i primi a regolamentare ulteriormente una materia in continuo, imprevedibile sviluppo rischia di isolare e danneggiare il paese.
Il rischio è quello di sovrapporre norme tra loro non coordinate non solo nei contenuti ma anche nella finalità e nel metodo: creando incertezze tra imprese e cittadini e dando la sensazione di percorsi oggi non più coincidenti tra Unione e Italia.
Cosa fare. La legge italiana è stata approvata pochi mesi fa. Mettervi subito mano per adeguarla oggi alla nuova «filosofia» dell’Unione appare velleitario e controproducente. Occorrerà in primo luogo che si sedimenti ulteriormente il nuovo indirizzo europeo. E poi procedere ad una riflessione più approfondita che sappia però, questa volta, meglio confrontarsi con tutti gli operatori di questo fondamentale settore, gli stakeholders, senza pregiudizi ideologici se non addirittura morali.
Ricordiamo quanto disse Henry Kissinger nel libro sull’intelligenza artificiale pubblicato qualche tempo prima della sua morte, nel novembre del 2023. Nei confronti della IA abbiamo tre possibilità: limitarla, lavorarci insieme, affidarci completamente ad essa. Si tratta oggi di scegliere.

Lascia un commento