Lo scontro drammatico e sconcertante alla Casa Bianca tra Donald Trump e J. D. Vance contro Volodymyr Zelensky ha evidenziato il dissenso profondo tra la visione europea e quella americana sulla guerra in Ucraina e sui rapporti con la Russia. Ma diversi osservatori si stanno interrogando sul fatto se analoghe fratture stiano emergendo anche in altri settori: oltre a quello delle politiche tariffarie, commerciali e fiscali, il riferimento è alla regolazione delle nuove tecnologie, a cominciare dall’intelligenza artificiale.
Riavvolgiamo brevemente il nastro e ricordiamo l’intervento dello stesso Vance qualche settimana fa al Summit di Londra sulla IA. Dopo aver richiamato gli orientamenti del nuovo Ordine Esecutivo di Trump, Vance ha ribadito le quattro priorità dell’amministrazione USA su questo tema: assicurarsi che la tecnologia americana mantenga globalmente il proprio primato; evitare un eccesso regolatorio; rimuovere i pregiudizi ideologici sull’IA; vedere in essa uno strumento per la crescita qualitativa e quantitativa dei posti di lavoro.
Su questi presupposti l’Amministrazione statunitense si accinge a varare il suo AI Action Plan, in corso di definizione da parte del White House Office of Science and Technology, che accetterà commenti alla bozza di lavoro fino al prossimo 15 marzo.
Anche da parte europea si erano già levati appelli contro l’over-regulation del settore come stava emergendo nell’Ai Act. Ricordo a proposito l’intervista di Mario Draghi al Financial Times del 15 febbraio, che sottolineava come l’eccesso regolatorio risultasse penalizzante per le tecnologie digitali comportando, ad esempio, una riduzione del 12% dei profitti delle piccole imprese tecnologiche continentali, solo per conformarsi alle disposizioni del GDPR. Analoghe riserve erano state avanzate da più parti per i rilevanti costi della compliance alle prescrizioni amministrative e burocratiche contenute nella nuova disciplina europea.
Il discorso assume però ora una valenza diversa anche rispetto alle preoccupate considerazioni di Draghi. Una valenza non solo relativa al come meglio garantire, senza complicazioni defatiganti, lo sviluppo tecnologico e al contempo la sicurezza dei cittadini; ma che si lega oggi a prospettive geopolitiche di dominanza globale. Regolamentare l’Intelligenza Artificiale non è più soltanto una questione, come ha sempre ritenuto l’Unione, in primo luogo di tutela dai potenziali rischi che questo nuovo strumento potrebbe provocare; ma diviene il terreno di scontro con quelle ‘istituzioni’ che sempre più stanno assumendo un ruolo geopolitico anche nei rapporti tra gli Stati: le grandi società tecnologiche (le Big Tech).
Ho volutamente usato un termine forte – istituzioni – per definire le BT americane, e cioè Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia, Tesla ed altre minori. Così le definiscono oggi autori diversi, che vedono in esse quasi gli elementi di una nuova statualità: un tema al quale ho dedicato un precedente post (Big Tech e nuova statualità, 4 novembre 2024).
È una posizione, quella delle BT, risalente nel tempo e fortemente anti regolatoria: Peter Thiel, uno dei più influenti imprenditori del settore, già in un suo libro del 2015 (Zero to One, Notes on Startups, or How to Build the Future) riteneva che solo dai monopoli forti potesse partire la spinta all’innovazione; mentre la concorrenza, per i limiti ad una libera competizione ad essa strettamente legati, era inevitabilmente destinata a provocare la crisi e la distruzione delle aziende innovative.
Questo atteggiamento anti-regolatorio trova oggi alimento nella presidenza Trump, ma sarebbe sbagliato ignorare che già la precedente amministrazione lo aveva, sia pur in misura minore, fatto proprio. L’Executive Order di Biden del 30 ottobre 2023 (poi annullato da Trump il 23 gennaio scorso e sostituito con un nuovo EO) già esprimeva un orientamento diverso da quello allora in corso di adozione da parte dell’Unione Europea: senza entrare in particolari, ricordo che in esso si preferivano strumenti di soft law che, più che ad introdurre nuove norme, puntavano a prevedere indirizzi ed agevolazioni per le imprese; a favorire accordi volontari tra le imprese stesse e gli utenti; a coinvolgere agenzie e strutture già esistenti; a ricorrere alla normativa vigente, anche quella penale, per affrontare i temi etici ed i conflitti; a predisporre sostegni finanziari e fiscali per favorire la ricerca e il mercato.
Certamente il nuovo Executive Order di Trump accentua tali aspetti, ma la sua principale caratteristica è che la volontà di deregolamentazione non è più legata solo alla necessità di favorire lo sviluppo dell’IA, ma si fonda sulla convinzione che la prevalenza globale americana in questo settore richieda in maniera determinante la forte capacità innovativa delle Big Tech ed un loro aggressivo controllo del mercato internazionale: un approccio che un eccesso di regole renderebbe di difficile attuazione.
Di questo mercato globale fanno naturalmente parte rilevante, e forse essenziale, i quasi 450 milioni di abitanti dell’Unione Europea: vincolati però, a giudizio delle Big Tech ed oggi dello stesso governo americano, da una regolamentazione che impedisce la ricerca, lo sviluppo e la commercializzazione delle tecnologie avanzate.
Un sistema regolatorio, frutto di una ormai passata stagione culturale e politica, criticato oggi anche da diversi, influenti osservatori europei: a cominciare, ma non solo, dal ricordato Mario Draghi.
La consapevolezza dell’eccesso di regolamentazione nel campo dell’IA tocca oggi peraltro anche i vertici dell’Unione. Ne è prova l’inaspettato ritiro, l’undici febbraio scorso, della AI Liability Directive, annunciato in occasione della presentazione da parte della Commissione del Programma di Lavoro per il 2025. Un Programma che rappresenta una marcia indietro rispetto alla precedente filosofia regolatoria, e che vede anche l’inatteso abbandono di diverse altre proposte, compreso quell’ePrivacy Regulation Act atteso da tempo.
La stessa Presidente della Commissione, Ursula von der Leyen, nel corso del vertice di Parigi sulla IA del 10-11 febbraio, aveva peraltro sottolineato la necessità di superare quegli intralci burocratici (red tapes) che limitano lo sviluppo. Ricordiamo che nel corso dello stesso vertice il vicepresidente americano, J. D. Vance, aveva con decisione attaccato altri due pilastri della disciplina europea in materia: il Digital Service Act e il General Data Protection Regulation.
Una cosa è tuttavia intervenire sugli eccessi e sui limiti alla ricerca, alla commercializzazione ed all’utilizzo dell’IA che possono derivare dalle complesse regole dell’AI Act. Altro è invece, come osserva Bini Smaghi, porsi come obiettivo il far saltare la regolazione unitaria europea per favorire un sistema di relazioni bilaterali che premierebbe gli Stati forti come gli USA, lasciando quindi campo libero alle Big Tech nel loro progetto di controllo globale non solo di questa tecnologia, ma delle leve stesse del potere politico, e dando quindi ragione a Marietje Schaake che da tempo sottolinea questo rischio.
Vogliamo concludere ricordando quanto osserva sul tema il Nobel per l’Economia 2024 Daron Acemoglu, sia nel suo libro Power and Progress, scritto con S. Johnson e pubblicato lo stesso anno, sia in altri interventi, tra i quali una recente intervista a Federico Fubini, riportata sul Corriere della Sera da Luca Angelini. Il primo dei modi con cui riflettere sugli sviluppi dell’IA, ritiene Acemoglu, è quello di vedere in essa «la corsa senza fine verso l’intelligenza artificiale generale e quindi la superintelligenza, in cui le macchine superano gli esseri umani in quasi tutte le attività […] La minaccia principale in questo scenario proviene in realtà dal potere incontrollato di chi sviluppa e gestisce questi sistemi. Un simile futuro aggraverebbe enormemente le disuguaglianze e, privandoci della nostra capacità di azione, ridurrebbe e svuoterebbe il significato stesso dell’essere umano» È la strada, questa, che sembrano voler seguire oggi le Big Tech: e non solo quelle di Peter Thiel, Joe Lonsdale, Ben Horowitz, Marc Andreessen, Reid Hoffman e naturalmente Elon Musk; ma anche quelle di Mark Zuckerberg, Jeff Bezos, Sandor Pichai e tanti altri le cui posizioni sono significativamente cambiate negli ultimi mesi. Un percorso pericoloso, le cui conseguenze non possiamo oggi neanche immaginare e che vede tuttavia le BT procedere decise, rifiutando anche le regolazioni meno invasive: un percorso attualmente favorito con decisione dall’amministrazione Trump.
A questa strada si contrappone, secondo Acemoglu, la via «a favore dell’umanità», che vede nell’IA «uno strumento per responsabilizzare gli individui, per rendere i lavoratori più produttivi fornendo loro le informazioni contestuali e affidabili in supporto della loro competenza»: una strada che, sia pure in modo non lineare, sembra ancora oggi seguita dall’Unione Europea.
Non è quella europea una prospettiva facile, ed il suo successo non è affatto favorito da quanto sta accadendo in questi giorni. I cambiamenti negli equilibri mondiali; l’affermarsi di nuovi soggetti con poteri economici, finanziari e tecnologici forse senza precedenti; una capacità di tali nuove “istituzioni” di orientare anche politicamente le pubbliche opinioni, ponendole sullo stesso piano degli Stati: sono tutti fenomeni che diminuiscono la possibilità di controllo sugli sviluppi e sull’utilizzo dell’intelligenza artificiale attraverso gli strumenti, anche giuridici, ereditati da un diverso passato e fino ad oggi prerogativa del potere statale.
Che fare, allora? Nessuno ha in questo momento la risposta giusta, anche perché il quadro tecnologico, e quello dei soggetti che lo determinano, si sviluppa con una velocità che i tradizionali strumenti di normazione e di intervento gestiti dai singoli Stati non riescono oggi a seguire. E la nostra riflessione non considera quello che potrebbe essere su questi temi l’atteggiamento di paesi nei quali gli strumenti di restraint politico e normativo sono assai minori: a cominciare dalla Cina, ma non solo.
L’umanità si è altre volte trovata di fronte a un bivio che sembrava mettesse a rischio la stessa sua sopravvivenza: si pensa naturalmente alla sfida, fino ad oggi vinta, posta negli scorsi decenni dall’uso, anche bellico, dell’energia nucleare.
Per quanto riguarda il nostro tema, un primo passo può essere proprio quello di rendere la pubblica opinione consapevole pienamente dei rischi, ma anche delle possibilità, che il nuovo strumento pone. Né ‘vitello d’oro’ cui inchinarsi, né ‘quinto cavaliere dell’Apocalisse’, da cui fuggire terrorizzati. Ma uno strumento creato dall’uomo che spetta alla consapevolezza dell’uomo comprendere e guidare.
Ancora una volta, ahimè, un vasto programma…
Lascia un commento