Due notizie recenti, fra le moltissime che ci vengono quotidianamente proposte, possono sollecitare la nostra attenzione ed essere messe in rapporto fra loro. La prima riguarda la conclusione del processo di stesura delle Linee guida etiche per un’Intelligenza artificiale affidabile da parte dell’Unione europea, nonché il suo pubblico rilascio. La seconda concerne l’ennesimo uso di droni turchi di tipo Kargu-2, con operatività autonoma, nello scenario di guerra libanese, allo scopo di colpire le milizie del maresciallo Haftar.
L’8 aprile scorso il gruppo di esperti di alto livello comprendente rappresentanti del mondo dell’accademia, della società civile, dell’industria, presentava il testo delle Ethics Guidelines for Trustworthy AI. Esso seguiva la pubblicazione della prima bozza delle linee guida, avvenuta nel dicembre 2018, e si avvaleva di più di 500 commenti, successivi a un percorso di consultazione pubblica. Il documento, che esprime tutto l’impegno dell’UE per una regolamentazione della ricerca e delle applicazioni nel campo dell’intelligenza artificiale (AI), si basa su 3 criteri di fondo ed elabora 7 requisiti che una AI deve rispettare per essere considerata eticamente affidabile (si veda https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai).
I tre criteri sono: il rispetto di tutte le leggi e i regolamenti europei con cui l’uso dell’AI può impattare; il rispetto dei principî e dei valori etici condivisi a livello comunitario; la robustezza, cioè la solidità e affidabilità dei processi governati dall’AI, sia su di un piano tecnico che nelle sue conseguenze sociali. I 7 requisiti, a loro volta, risultano meno generali. Riguardano il fatto che i sistemi dotati di AI dovrebbero potenziare l’attività degli esseri umani, consentire a essi di prendere decisioni informate e promuovere i loro diritti fondamentali. Comportano, nella progettazione e nell’azione di questi sistemi, una richiesta di affidabilità e sicurezza, minimizzando i possibili rischi connessi al loro uso. Richiedono il rispetto della privacy e la possibilità di una governance dei dati. Esigono trasparenza per quanto riguarda la programmazione delle loro decisioni. Tali sistemi, poi, devono essere vincolati, nel loro uso, al rispetto delle diversità, alla non-discriminazione, all’equità. Devono essere volti al benessere sociale e ambientale. E, in ultimo, devono essere sottoposti a procedure atte a garantire l’identificazione delle specifiche responsabilità relative alla loro gestione.
Si tratta, com’è ovvio, di prescrizioni valide e condivisibili. Va anzi riconosciuto il fatto che la UE, a differenza di altre entità politiche, non ha ritenuto di delegare la regolamentazione di tali questioni al libero confronto fra i soggetti interessati – prime fra tutte le grandi companies –, ma se n’è voluta fare esplicitamente carico attraverso un complesso processo condiviso (in cui comunque le companies, fra gli esperti estensori delle linee guida, sono abbondantemente rappresentate). Vi sono però almeno due aspetti che vanno segnalati.
Il primo riguarda l’impostazione antropocentrica che viene data, in generale, al documento. Sembra che l’essere umano sia o debba essere al centro di tutti i processi prodotti dall’AI e che, pur se non riesce ad averne il controllo, debba valutarli da un punto di vista etico unicamente a partire dai propri interessi. Ma si tratta di una posizione problematica e astratta. Infatti, se pure è vero che la caratteristica dell’affidabilità – ciò che si occupa di definire il documento europeo – è validata solo in relazione alle aspettative degli esseri umani, noi ormai viviamo in un contesto in cui non solo non siamo più al centro delle azioni compiute dai dispositivi dotati di AI, ma dobbiamo anzi interagire con devices che, una volta attivati – come accade nell’internet delle cose e come mostrerà il caso dei droni –, si collegano fra loro o compiono la loro missione bypassando un nostro input. In questo quadro parlare di ‘fiducia’ nei confronti di tali dispositivi non coglie il problema.
L’altra riflessione riguarda invece l’impostazione prescrittiva che è propria dei criteri e delle raccomandazioni del documento. Come mostra il linguaggio usato, esso elenca infatti una serie di norme che, se rispettate, renderebbero il mondo certamente migliore. Ma la questione non sta solo nel fatto che le cose vanno diversamente: ci si potrebbe infatti impegnare affinché ciò non accada. Il problema è piuttosto che l’attuazione dei contenuti di questo documento, come nel caso di tutti i codici deontologici, è affidata alla buona volontà di chi lo intende adottare. E non sarebbe sufficiente, per favorire la sua applicazione, il riferimento a eventuali punizioni nei confronti dei trasgressori: sia perché non sono indicate, sia perché non si sa, in un contesto europeo, chi le potrebbe comminare.
La seconda notizia da cui sono partito, quella dei droni turchi, sta proprio a confermare questo scenario. Si tratta di un evidente esempio di uso non affidabile dell’AI. Si tratta, più ancora, di un’ulteriore prova della perdita di peso geopolitico dell’Europa, e non solo di alcuni dei suoi Stati, nel contesto mediterraneo.
La storia è presto detta. Dovendo ammodernare il proprio esercito, e rinnovarlo (anche dopo le purghe successive al tentato golpe del 2016), Erdogan ha dato avvio, fra l’altro, alla progettazione e produzione di droni da combattimento. Un suo genero (Selçuk Bayraktar), con studi negli USA, ha reso possibile tutto ciò, fondando la società che porta il suo nome e vendendo anche i suoi prodotti in giro per il mondo (gli ultimi alla Polonia, cioè a un paese della NATO).
A differenza di altri modelli, che hanno altre caratteristiche, lo STM Kargu-2 è un velivolo in grado di far detonare una bomba dopo aver raggiunto il suo obbiettivo con un volo di massimo 15 minuti, con una velocità massima di 72 km/h e salendo a una quota non superiore ai 2,5 Km. Per questo fa parte della categoria di droni chiamati “munizioni vaganti”. Una volta raggiunto l’obbiettivo, esso è in grado di riconoscerlo e di esplodere sul bersaglio, compiendo una sorta di missione suicida. La sua ‘autonomia decisionale’, come potremmo chiamarla, funziona nel senso che non è necessario il comando dell’operatore, come nel caso di altri droni, per esplodere. Infatti una volta lanciato, e grazie ai sistemi di computer vision e di riconoscimento del bersaglio tramite AI, il Kargu-2 non può essere fermato. Di più. Potendo riconoscere bersagli umani, esso non fa differenza fra un soldato e un bambino.
Non posso soffermarmi sul fatto che i successi militari di Erdogan in Libia, in Siria, in Azerbaijan, sono dovuti all’uso questi dispositivi. Far riferimento a questo esempio mi serve piuttosto per una serie di riflessioni conclusive. Meglio: per costringere tutti noi a un bagno di realtà.
Non si tratta di decidere se un dispositivo dotato di AI è degno o no di fiducia. Lo può essere certamente, a seconda di come opera e dei suoi effetti. E nel definire tali aspetti il documento della UE può certamente essere utile. Ma il problema, ripeto, non è quello di fidarci o meno delle tecnologie. Ce ne fidiamo anzi fin troppo: fino a credere più a Google Maps che ai nostri occhi. La questione, invece, è che, al contrario di noi, i dispositivi tecnologici agiscono. Agiscono e basta. Agiscono con o senza il nostro input, con o senza il nostro immediato controllo.
È pur vero che li abbiamo progettati, costruiti e attivati noi esseri umani. Ma poi essi sono in grado di muoversi con una certa ‘autonomia’. Ecco: è proprio questo il problema da affrontare, al fine di circoscrivere la portata di tali azioni e d’interagire correttamente con esse. Si tratta di definire, nelle sue caratteristiche e nelle modalità del suo controllo, la crescente autonomia di cui certi dispositivi sono capaci. Se non lo faremo, ci troveremo di fronte a un paradosso: continueremo a costruire macchine che dovrebbero permetterci di controllare il mondo, ma che invece finiscono per renderlo sempre più incontrollabile.
Lascia un commento