Paradoxaforum

  • Home
  • Contatti
  • Chi siamo
Ti trovi qui: Home / Interventi / Qualche osservazione preliminare sulla nuova legislazione europea sull’intelligenza artificiale

Qualche osservazione preliminare sulla nuova legislazione europea sull’intelligenza artificiale

18 Marzo 2024 di Antonio Malaschini Lascia un commento

Abbiamo letto nei giorni scorsi positive, a volte entusiastiche, dichiarazioni di politici e osservatori a seguito dell’approvazione da parte del Parlamento Europeo, il 13 marzo, del Regolamento europeo sull’intelligenza artificiale – EU’s AI Act.

Il cammino è stato lungo: tralasciando le fasi preliminari che possiamo far risalire a oltre sei anni fa, la proposta della Commissione è del 21 aprile 2021; la posizione del Consiglio è stata resa nota nel dicembre del 2022, quella del Parlamento nel giugno 2023; l’accordo politico, a conclusione del trilogo, è stato raggiunto l’8 dicembre 2023; il voto del Parlamento è appunto del 13 marzo 2024. Mentre a Bruxelles si discuteva, la tecnologia andava avanti – si pensi a ChatGPT e simili – costringendo i legislatori a una non facile e a volte affannata rincorsa.

Non è però ancora finita: dopo alcuni ulteriori passaggi di drafting e la definitiva approvazione da parte del Consiglio, occorrerà attendere la pubblicazione nel Journal Officiel dell’Unione – aprile-maggio – e, 20 giorni dopo, l’AI Act entrerà finalmente in vigore. Con uno scadenzario assai complicato, non lo vogliamo qui riportare nei dettagli,  che va dai sei mesi ai sei anni dopo l’entrata in vigore, in relazione alla tipologia delle disposizioni.

L’approccio europeo è, come noto, basato sui rischi: più alti i rischi più rigorosa la disciplina e più rilevanti le sanzioni. E avremo allora rischi inaccettabili e quindi proibiti, come quelli che sfruttano le vulnerabilità dei soggetti cui si rivolgono, utilizzano tecniche subliminali, categorizzano gli individui in base a razza, orientamenti di genere, opinioni e convinzioni politiche o religiose; rischi considerati invece gravi – high risks –, derivanti dall’uso di componenti che gestiscono infrastrutture digitali critiche, o che decidono in base ai loro algoritmi assunzioni o licenziamenti oppure la concessione o meno di benefici sociali, o ancora interferiscono sull’amministrazione della giustizia e nel processo democratico; sono poi indicati i rischi invece limitati, senza conseguenze lesive per la salute, la sicurezza e i diritti fondamentali degli individui. Non possiamo poi non ricordare la presenza di disposizioni a tutela del copyright e per contrastare la diffusione di notizie non vere – fake news – ; nonché la disciplina, oggetto di un non facile compromesso, della General Purpose Artificial Intelligence – GPAI, intelligenza artificiale con finalità generali –, che ha visto il legislatore europeo quasi ‘rincorrere’ lo sviluppo tecnologico.

Tutto bene? É l’augurio comune: una tecnologia come quella dell’intelligenza artificiale non può assolutamente non essere disciplinata. La discussione va invece spostata sui modi di tale regolazione, sugli strumenti per attuarla, sull’apparato di governance e sanzionatorio creato per assicurarne il funzionamento.

Sono temi sui quali ci riproponiamo di tornare in modo più diffuso: vogliamo qui soltanto fare alcune preliminari, e certamente non complete, osservazioni.

L’intenzione del legislatore è quella di ripercorrere la strada seguita con il GDPR, che ha costituito un benchmark non solo per le imprese europee ma anche per tutte quelle non europee che intendevano muoversi in Europa. Così chi vorrà da oggi introdurre i propri prodotti o i propri servizi nel campo dell’intelligenza artificiale dovrà adeguarsi alla nuova disciplina dell’Unione, in base anche questa volta a un principio di extraterritorialità.

Un approccio, quello europeo, per molti eccessivamente complicato: 300 pagine il testo finale e 900 quello a fronte che compara le proposte di Commissione, Consiglio e Parlamento, essenziale per comprendere la genesi delle proposte; ben 120 i considerata, ciascuno con un rilevante valore interpretativo; oltre 90 lunghi articoli – ad esempio, l’articolo 3 è suddiviso in 80 numeri e lettere – ; una decina gli annessi. Saranno forse inevitabili complesse questioni interpretative e applicative, alla luce dei potenziali conflitti tra produttori, utilizzatori, imprese e utenti finali anche extraeuropei; nonché delle sovrapposizioni tra autorità sovranazionali e nazionali, entrambe rappresentate nel modello di governance.

Questo approccio, che privilegia norme cogenti e una forte struttura di governo e sanzionatoria, è diverso da quello adottato in altri paesi. Senza voler qui operare una comparazione approfondita, Stati Uniti e Regno Unito sembrano al momento orientati verso un percorso non immediatamente normativo, che privilegia invece strumenti di indirizzo e di persuasione – anche attraverso forti incentivi – tra i produttori, gli operatori e i fruitori, cercando di favorire intese fra i soggetti interessati e puntando su istituzioni e agenzie già esistenti per guidare e controllare i processi di sviluppo. In questo senso vanno sia l’Ordine Esecutivo di Biden dello scorso ottobre,  che il Libro Bianco inglese del marzo 2023.

È naturalmente indubbia la necessità di regolare l’intelligenza artificiale, anche per rispondere a preoccupazioni, a volte non sempre giustificate, sui rischi che essa pone. Ciò che si vuole invece discutere è la validità dell’approccio europeo, e l’effettiva idoneità degli strumenti di governo e sanzionatori creati. Anche qui ci  proponiamo di approfondire l’analisi non appena la nuova disciplina  sarà entrata in vigore.

Un’ultima osservazione: la normativa approvata esclude in maniera esplicita la possibilità di una sua applicazione al settore militare e della difesa. È una scelta  comprensibile, vista la storica, gelosa e radicata competenza dei singoli stati in materia,  salvo condivisi, ma spesso non rispettati, accordi internazionali.

Lo sviluppo dei sistemi d’arma letali autonome – Lethal Autonomous Weapons – basati sull’intelligenza artificiale, che abbiamo visto sempre più utilizzati nei conflitti di questi ultimi anni, non rende però possibile ignorare ulteriormente il tema: insieme a quello, a esso connesso, degli strumenti attraverso i quali far rispettare le eventuali limitazioni adottate. È una questione certamente complessa con forti implicazioni etiche ma, senza affrontarla, le preoccupazioni che accompagnano lo sviluppo dell’intelligenza artificiale potranno trovare alimento nei pericoli reali che l’uso di strumenti di guerra, coadiuvati dall’intelligenza artificiale, può comportare.

E favorire quindi reazioni di paura e ostilità verso una tecnologia che, certamente guidata come tutti i ricordati paesi stanno cercando di fare, può contribuire alla soluzione di tanti, attuali problemi.

Europarlamento e EU’s AI Act

Condividi:

  • Fai clic qui per condividere su Twitter (Si apre in una nuova finestra)
  • Fai clic per condividere su Facebook (Si apre in una nuova finestra)
  • Altro
  • Fai clic qui per stampare (Si apre in una nuova finestra)
  • Fai clic per inviare un link a un amico via e-mail (Si apre in una nuova finestra)

Archiviato in: Interventi Etichettato con: EuroParlamento, intelligenza artificiale

Privacy e cookie: Questo sito utilizza cookie. Continuando a utilizzare questo sito web, si accetta l’utilizzo dei cookie.
Per ulteriori informazioni, anche su controllo dei cookie, leggi qui: Informativa sui cookie

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Tema in discussione

  • L'Europa da Ventotene ad oggi
  • I voti dell'Europa
  • Democrazie e guerra
  • Presidenzialismo
  • Guerra russo-ucraina
  • Il vaccino della conoscenza
  • Rientro a scuola. La sfida al Covid
  • CoVid19. Le angolazioni della crisi
  • Fatti e disfatti
  • Unione Europea
  • Il ’68, lo Stato, la nazione
  • Comunicazione politica
  • Newsletter

    * campi obbligatori

    Commenti recenti

    • Eufrasia su Non genocidio, ma crimini di guerra
    • Giovanni Biondi su Il baro destino di John Maynard Keynes di non essere ascoltato
    • carmelo vigna su Il baro destino di John Maynard Keynes di non essere ascoltato

    GLI AUTORI

    IL TEMA IN DISCUSSIONE

    L’Europa da Ventotene ad oggi

    Il Manifesto di Ventotene. Qualche considerazione di metodo

    31 Marzo 2025 di Dino Cofrancesco 3 commenti

    Giuseppe Ieraci sul post di ParadoxaForum, del 28 marzo, Sovversivi e comunisti a Ventotene, analizzando criticamente Il Manifesto di Ventotene ha parlato di «un apparato concettuale che oggi desta perplessità: lotta e coscienza di classe, rivoluzione, collettivizzazione, proletariato, sfruttamento capitalistico, imperialismo, si tratta di un linguaggio tardo ottocentesco che era tipico dell’humus … [continua]

    Archiviato in:Il tema in discussione Contrassegnato con: politica, storia, L'Europa da Ventotene ad oggi, Ventotene

    Sovversivi e comunisti a Ventotene

    27 Marzo 2025 di Giuseppe Ieraci 2 commenti

    «La caduta dei regimi totalitari significherà sentimentalmente per interi popoli l’avvento della ‘libertà’; sarà scomparso ogni freno, ed automaticamente regneranno amplissime libertà di parola e di associazione. Sarà il trionfo delle tendenze democratiche». Sono parole di Silvio Berlusconi? Oppure di Volodymyr Zelenskyj? … [continua]

    Archiviato in:Il tema in discussione Contrassegnato con: Governo italiano, L'Europa da Ventotene ad oggi, Ventotene

    Quelli che l’Europa di Ventotene

    24 Marzo 2025 di Gianfranco Pasquino 1 commento

    «L’Europa di Ventotene», ha affermato la Presidente del Consiglio Giorgia Meloni, «non è la mia Europa». Non avrebbe certamente potuto esserlo poiché lei non si sarebbe mai trovata fra i confinati a Ventotene, ma certamente a Roma fra i confinatori fascisti. Perché gli alleati del regime fascista che metteva in galera e confinava i suoi oppositori erano proprio i nemici dell’Europa di Ventotene. … [continua]

    Archiviato in:Il tema in discussione Contrassegnato con: Europa, democrazia, L'Europa da Ventotene ad oggi, Ventotene

    Galleria fotografica

    Questo slideshow richiede JavaScript.

    Archivi

    Privacy Policy

    Contattaci

    Nova Spes International Foundation
    Piazza Adriana 15
    00193 Roma

    Tel. / Fax 0668307900
    email: nova.spes@tiscali.it

    Statistiche

    • 193.482 clic

    Seguici

    • Facebook
    • Instagram
    • Twitter
    • YouTube

    © Copyright 2016 Paradoxa Forum · All Rights Reserved