Il 14 giugno scorso il Parlamento europeo ha approvato il cosiddetto «AI Act», vale a dire il documento con cui la UE intende regolamentare gli sviluppi dell’intelligenza artificiale e le loro applicazioni. L’iter è stato lungo, ma alla fine è giunto a conclusione. Ora sta ai singoli Stati recepire questo regolamento, attraverso un voto parlamentare, e definire le sue modalità di applicazione nei vari contesti.
Si deve salutare con favore, certamente, quest’approvazione. Segnala un impegno concreto della UE, l’intenzione di porre limiti a una ricerca sempre più convulsa e il tentativo di governare quegli sviluppi tecnologici il cui indirizzo, altrimenti, sarebbe lasciato solo alle esigenze del mercato. Già abbiamo visto, peraltro, che cosa comporta l’affidarsi a tali esigenze. Ne ha offerto un chiaro esempio la raccolta, l’utilizzo e lo sfruttamento dei dati personali degli utenti dei Social, con tutto ciò che ha comportato. Oggi però sono altre le urgenze e le preoccupazioni: ad esempio quelle legate agli sviluppi dell’intelligenza artificiale generativa, com’è il caso di ChatGPT.
Il problema è però in che modo il controllo auspicato può realizzarsi ed essere efficace. Perché ciò avvenga è necessario, in generale, il rispetto di alcune condizioni di fondo. Ne posso indicare solo alcune.
La prima condizione è la tempestività. Come detto, le tecnologie si sviluppano con grande velocità. Ma la loro regolamentazione non può riguardare questioni magari già superate nel momento in cui certe norme sono decise, altrimenti queste ultime diventano inutili. La seconda condizione è invece quella della flessibilità. Le regole devono essere non solo chiare e applicabili, ma soprattutto devono adattarsi ai vari contesti culturali e sociali. La terza necessità riguarda poi il carattere condiviso di tali norme. I problemi sollevati dalle molteplici applicazioni dell’intelligenza artificiale non possono essere affrontati con soluzioni settoriali, perché a questioni d’interesse globale devono essere date risposte altrettanto globali.
Il regolamento europeo solo in parte viene incontro a queste condizioni. È stato aggiornato in ultimo, anche ridefinendo alcuni concetti chiave relativi alla sua applicazione – a partire da quello di «intelligenza artificiale» –, ma non ha forse tutta la flessibilità richiesta per gli scopi che intende raggiungere. Si applica inoltre solo a un contesto europeo. Soprattutto, però, accoglie più o meno implicitamente alcuni presupposti che meritano di essere approfonditi.
Muove infatti dall’idea che la regolamentazione dei dispositivi dotati d’intelligenza artificiale passa attraverso il loro controllo da parte degli esseri umani. Ma, come tali, questi dispositivi hanno un certo grado di autonomia, e dunque per definizione sfuggono al controllo. Di conseguenza la regolamentazione può non essere inutile solo se s’intraprende con decisione la strada di una «human-centered AI», cioè la costruzione e la programmazione di dispositivi rispetto ai quali, pur tenendo conto della loro relativa autonomia, gli esseri umani sono in grado di avere l’ultima parola. È necessario cioè elaborare e giustificare una meta-regola: quella per cui, sostanzialmente, possono essere ammessi solo quei sistemi basati sull’intelligenza artificiale fatti in modo da subordinarsi agli esseri umani. Il problema però è quello di far rispettare questa meta-regola. Tende a impedirlo sia la disposizione degli esseri umani stessi a una sorta di ‘servitù volontaria’ nei confronti di altre entità ritenute più perfette, sia l’idea che, se qualcosa può essere realizzato, non si capisce perché non lo si debba fare, anche a prescindere dalle conseguenze.
Il regolamento europeo sull’intelligenza artificiale, poi, è sostanzialmente basato su una graduatoria relativa ai rischi che determinati programmi o dispositivi possono far correre agli esseri umani. E qui sorge un altro problema. Si tratta infatti di un criterio sostanzialmente negativo. L’approccio sembra essere soprattutto proibizionistico: e ciò lascia sullo sfondo tutta un’altra serie di questioni che meritano di essere affrontate per quanto riguarda l’interazione uomo-macchina. D’altronde la possibilità di una policy comune internazionale nei confronti dell’intelligenza artificiale non è un’utopia. Un’analisi dettagliata dei codici di comportamento elaborati da varie istituzioni permette d’identificare una serie di valori comuni che possono costituire un buon punto di partenza per governare la questione.
In definitiva, quello raggiunto dalla UE è un risultato significativo, soprattutto su di un piano simbolico. È importante impegnarsi per governare le questioni connesse all’uso dell’intelligenza artificiale: anche e proprio da parte di Stati che non hanno il monopolio né delle materie prime impiegate, né nelle tecnologie alla base dello sviluppo dell’intelligenza artificiale. Ma non si può pensare, come spesso fa l’Europa, che a buoni principi seguano buone pratiche. Perché i regolamenti europei abbiano reale efficacia, insomma, la strada da fare è ancora lunga.
Lascia un commento