L’accelerato sviluppo in ambito tecno-scientifico dei sistemi di Intelligenza Artificiale (IA) va sollevando un insieme di inquietanti interrogativi circa le implicazioni sui fronti culturale, etico e sociale. Ciò è particolarmente il caso quando ci si riferisce all’IA generativa, a questa nuova branca dell’IA capace di generare – si badi: non di creare – nuovi contenuti multimediali (testo, video, audio) in risposta a suggerimenti umani (i cosiddetti prompts) sulla base di addestramenti ad hoc estratti da miliardi di dati (big data). Tali sviluppi stanno determinando cambiamenti profondi nella sfera giuridica, socio-economica, culturale dei nostri paesi, impensabili fino a qualche anno fa. Poiché nella definizione di intelligenza si implica il concetto di ‘coscienza’ e quindi di ‘umano’, il fatto che tecnologie in evoluzione possano avvicinarsi a dare la percezione di una ‘coscienza’ a macchine basate su algoritmi è un tema piuttosto inquietante. Al di là di questioni etiche, come la definizione stessa di cosa riteniamo essere la ‘vita’, la possibilità di un nuovo materialismo che intenda far credere che l’essenza della vita umana è solo una serie di algoritmi sembra un’eventualità non troppo remota che porrebbe in discussione la centralità dell’uomo, con quel che ne conseguirebbe.
Sorge spontanea la domanda: in quale senso la regolazione, intesa in senso tradizionale, non è sufficiente? La ragione è che una realtà in rapido mutamento non è catturabile da norme per l’approvazione delle quali occorrono tempi medio-lunghi. Sono dunque necessarie norme flessibili e prontamente adattabili alle evoluzioni in corso e soprattutto è urgente dare vita a un organismo indipendente in grado di assicurare il rispetto delle regole. Solo così si può scongiurare il rischio del ‘dominio tecnopolare’. L’Artificial Intelligence Act (AIA) approvato in sede UE all’inizio dell’anno recepisce tale indicazione di metodo, quando affida alla politica il compito di estrarre dai valori guida da tutti condivisi (privacy, dignità umana, responsabilità, trasparenza, assenza di discriminazioni, controllo umano significativo), le regole specifiche da far rispettare, regole elaborate sulla base del principio del male che si vuole evitare. Come noto, l’uomo riconosce con più facilità ciò che lo ferisce e lo umilia, mentre è più in difficoltà quando deve decidere su ciò che lo realizza. È in ciò l’essenza dell’approccio della gestione del rischio; un approccio che mira a scongiurare i mali emergenti. L’AIA individua quattro livelli di rischio associati all’IA, a ciascuno dei quali corrisponde un insieme diversificato di restrizioni e di controlli.
In parallelo con l’evoluzione delle nuove tecnologie convergenti, ha preso campo, a partire dagli anni Novanta, quella corrente di pensiero filosofico nota come transumanesimo, ormai divenuta una vera ideologia sostenuta dai giganti dell’high tech della Sylicon Valley, dove ha sede il più grande centro di ricerca trasnumanista presso la University of Singularity, fondata nel 2007 e presieduta da Ray Kurzweil. Ha scritto Max More nel Manifesto del 2003: «Noi mettiamo in questione il carattere inevitabile della vecchiaia e della morte, cerchiamo di migliorare progressivamente le nostre capacità intellettuali e fisiche, sviluppandole anche sul piano emozionale. Vediamo l’umanità come una fase di transizione nello sviluppo evolutivo». L’umanità è dunque solo una fase di passaggio! Gli fa eco Nick Bostrom, filosofo di Oxford, quando scrive: «Usciremo dall’infanzia dell’umanità per entrare nell’era postumana. La medicina non è chiamata solo a riparare, a ripristinare l’equilibrio, ma è chiamata a rispondere ad un modello superiore di umano» (N. Bostrom, Better than human, Oxford University Press, 2011 – il titolo del libro significa ‘meglio che umani’).
Con l’ideologia transumanista, che va riscuotendo tanto successo soprattutto negli ambienti anglosassoni, siamo di fronte a una nuova tecnoreligione fondata sul dogma che la tecnologia sia onnipotente e che la capacità di scegliere tra il bene dal male non derivi da una scelta morale in una visione trascendente, ma dipende dalle illimitate conoscenze acquisibili grazie all’algoritmo, il quale diviene così l’espressione di un nuovo gnosticismo. Non v’è bisogno di spendere parole per capire perché il transumanesimo stia seriamente inquietando le religioni (vds., T. Tosolini, A nostra immagine, EMI, 2022), eccetto il mormonismo che ingenuamente ritiene che le Scritture invitino l’uomo ad andare oltre se stesso e a trascendere la limitazione del corpo (Cfr. il Mormon Transhumanist Association). Si comprende allora perché papa Francesco, e tanti altri con lui, insista così tanto sulla urgenza di rivitalizzare il progetto neo-umanista, erede della grande tradizione rinascimentale, dotandolo delle risorse necessarie alla sua diffusione ed espansione.
Un elemento di non poco conto che contraddistingue la transizione in atto è la tendenza endemica e sistemica alla oligopolizzazione dei mercati. È questo un problema serio per il capitalismo, perché l’economia di mercato capitalistica ha bisogno, per ben funzionare, della competizione, come già J. Schumpeter insegnava nel secolo scorso. Un solo esempio: le cinque corporation del gruppo GAFAM (Google, Amazon, Facebook, Apple, Microsoft) controllano circa il 90% del mercato delle nuove tecnologie del mondo occidentale. Non solo. Un fenomeno piuttosto recente è la scoperta del fatto che il costo ambientale dell’IA generativa sta aumentando in modo impressionante, ma quasi mai si rendono di dominio pubblico questi costi. I grandi sistemi di IA potrebbero presto richiedere tanta energia quanta ne richiedono intere nazioni. Lo stesso dicasi per l’enorme quantità di acqua dolce necessaria per raffreddare i processori. E’ agevole comprendere le conseguenze di tutto ciò sul fronte dello sviluppo sostenibile.
Per chiudere. «Né apocalittici, né integrati», ha scritto Umberto Eco (1964). Mai si potranno negare le grandi potenzialità delle nuove tecnologie in una pluralità di ambiti, come la medicina, l’organizzazione delle imprese, il funzionamento dei mercati e tanti altri ancora. Non c’è dunque ragione di essere apocalittici. Al tempo stesso, però, non si possono chiudere gli occhi di fronte a sfide etiche quali la propagazione degli errori umani, la riduzione del controllo umano, la rimozione della responsabilità umana, la svalutazione delle competenze umane, l’erosione dell’autodeterminazione. E dunque non avrebbe senso optare per di una supina integrazione, magari andando alla ricerca di un nuovo Golem. Filone di Alessandria definiva sapiente colui che sa stare sulla frontiera, senza scivolamenti di qua o di là.
L’atteggiamento da coltivare nei confronti delle IA è piuttosto quello suggerito da Platone quando, prendendo posizione a proposito dei pro e dei contro dell’impiego della scrittura nell’insegnamento ai bambini – un dibattito all’epoca particolarmente acceso – si inventa la favola egiziana che Socrate narra a Fedro. Nel mito si parla di Thot, semidio che si presenta al faraone Thamus per magnificargli la scrittura come un potente rimedio per la memoria e altro ancora. Il faraone conviene sì che la scrittura sia un pharmakon, ma da intendersi nell’altro senso della parola, cioè come veleno. Come si sa, la medicina fa bene solo se presa in dosaggio appropriato! È in ciò il senso proprio e fondamentale del pensiero critico: quello di contrastare l’avanzata del pensiero binario, tipico dei computer, il cui esito è l’esclusione del pensiero creativo e la cloroformizzazione della dimensione creativa. Tornare a educare al pensiero critico è allora la garanzia più efficace per far sì che la componente buona del pharmakon prevalga su quella del veleno, così che la triade ‘uomo-natura-tecnica’ possa conservare la sua gerarchia.
Andrea Bixio dice
Carissimo,
le tue riflessioni sul transumanismo e il tuo approccio realistico nel valutare la tecnologia e l’IA bene chiariscono il carattere puramente ideologico di molti attuali discorsi.
Come ogni ideologia anche l’IA denomina con un termine che affonda le sue radici nella più autentica esperienza umana, qualcosa che non ha alcun rapporto con essa.
La cosiddetta IA, infatti, è essenzialmente calcolo, ratio, un qualcosa che nulla ha a che fare con l’intelligere.
La confusione fra i due termini scaturisce dal fatto che la ratio è stata usata per una funzione etica, quella diretta a dissolvere le forme inautentiche, ovvero i pregiudizi di concezioni sociali (quelle tardo-feudali) di epoche al tramonto.
L’esperienza etica nuova (moderna) si è posta a fondamento del calcolo per ‘ricalcolare’ i rapporti sociali dell’antico regime in base a se stessa, in modo da dimostrarne l’inautenticità.
La ratio ha dominato la modernità per ragioni etiche nel tentativo di raffinare umanisticamente l’etica.
Quando questa funzione giunge a compimento e si esaurisce, la ratio si autonomizza dall’etica e da ancella si fà dominante.
Ma poiché non può stare radicata se non nell’esperienza etica, finisce per porre il puro calcolo come proprio principio etico. Cosa che significa o basare i rapporti umani sull’interesse (spingendo noi tutti a porci come egoisti calcolatori) o ridurre quegli stessi rapporti ad un calcolo prescindente dai medesimi e dai bisogni, ovvero alla pura potenza di calcolo in possesso di coloro che lo controllano.
E se poi si dovesse ipotizzare una rfadicale astrazione del sistema di calcolo, ci si ntroverebbe, rispetto ad esso, nella stessa condizione della nostra situazione rispetto ad eventi imprevedibili della natura inanimata.
La ratio o ci rimanda ad una riflessione sull’etica o si risolve in un calcolo irrazionalistico.