Venerdì 8 dicembre 2023 si è concluso il ‘trilogo’ tra Parlamento Europeo, Commissione e Consiglio dell’Unione sul nuovo Regolamento per l’Intelligenza Artificiale (IA). Non è ancora ufficialmente noto il testo dell’intesa che, al momento, ha quindi un valore sostanzialmente politico ed è solo conoscibile attraverso i comunicati stampa e le dichiarazioni di coloro che hanno partecipato alla trattativa.
Occorrerà ancora qualche tempo, presumibilmente tra la fine di gennaio e l’inizio di febbraio, per conoscere il testo ufficiale della proposta, sottoposta oggi a un’operazione di drafting, sulla quale si dovranno poi pronunciare in via definitiva Parlamento e Consiglio. Dopo la pubblicazione nell’EU Official Journal, è previsto un periodo di transizione di 24 mesi prima della sua piena entrata in vigore, ridotto in alcuni casi a 12 come ad esempio per la definizione dei sistemi capaci di determinare ‘rischi gravi’: si arriverà quindi al 2026.
Il primo problema, ancora non definitivamente risolto, è stato quello di trovare una condivisa definizione dell’IA che superasse le critiche alla eccessiva ‘ampiezza’ del termine contenuto nelle bozze iniziali. Al momento, in attesa del testo ufficiale, si fa riferimento alla definizione dell’OCSE, che secondo alcuni resta però ancora troppo ampia e generica: attendiamo di conoscere la formulazione finale prima di valutarla.
Questa difficoltà ci permette di cogliere il senso del confronto, anche acceso, che si è svolto in questi mesi: da una parte alcuni paesi, tra cui Francia, Germania e in parte il nostro, preoccupati che l’imposizione di limiti eccessivi specialmente ai modelli di IA più avanzati come i foundation models, potesse porre limiti alla ricerca; dall’altra la richiesta, da tutti condivisa ma con diverse sensibilità, di rispettare i diritti fondamentali dell’individuo e la rule of law.
Possiamo al momento dire che sembra sia stato trovato un ragionevole compromesso: ma attendiamo di conoscere, come detto, la versione definitiva per esprimerci. La normativa si rivolge ai fornitori (providers), importatori, distributori e utilizzatori di modelli e sistemi di IA anche se non residenti o registrati nell’Unione Europea, i cui prodotti influenzino (affect) comunque i cittadini dell’Unione: ha quindi, come il GDPR, un carattere dí extraterritorialità.
Come è noto, ci si è basati sui rischi: più alti i rischi, più rigorose le norme. E allora avremo prodotti proibiti in quanto pongono rischi inaccettabili: ad esempio i sistemi di identificazione biometrica in tempo reale in spazi pubblici (con limitate e puntuali eccezioni); di categorizzazione in base a caratteristiche sensibili; di social scoring; di manipolazione comportamentale; di raccolta incontrollata di immagini dalla rete.
I rischi gravi (high risks) sono, sempre esemplificando, quelli relativi a prodotti come gli strumenti medici, a quelli utilizzati nel campo del trasporto aereo e automobilistico, ai mezzi di identificazione biometrica, ai sistemi che facciano uso di capacità predittive; a quelli destinati ai settori dell’impiego, dell’educazione, del benessere sociale, dei trasporti. In questi casi si dovranno osservare misure quali la registrazione obbligatoria, la valutazione di conformità, l’indice di qualità, la sorveglianza post market, la segnalazione di criticità, il rispetto dei fondamentali diritti umani (Fundamental Rights Impact Assessment, FRIA).
I sistemi a rischi limitato, come le chatbot che interagiscono con soggetti umani, avranno obblighi di trasparenza. Quelli a rischio minimo, come i filtri anti spam, potranno eventualmente essere disciplinati da altre norme, come quelle del GDPR.
Lo spazio, e la necessità di attendere un testo definitivo, non ci consentono di entrare qui nel merito delle norme che regoleranno i foundations models, quelli generativi e quelli di IA a finalità generale (GPAI). Così come possiamo al momento solo ricordare il modo in cui nel testo siano disciplinati e un forte sistema sanzionatorio, e una governance che prevede anche l’istituzione presso la Commissione Europea di un AIOffice per i modelli GPAI, al fine di stabilire ulteriori regole comuni e identificare standard condivisi. Sarà poi promosso dalla stessa Commissione un ‘patto per l’intelligenza artificiale’, per favorire la definizione di obblighi comuni tra sviluppatori e produttori di strumenti IA, anche di altri paesi. È opportuno ricordare poi come la nuova disciplina non si applicherà al settore militare e a quello della difesa, nonché all’uso per ragioni esclusive di ricerca e innovazione.
È possibile una prima valutazione. L’Unione Europea si è posta, tra i primi il problema di risolvere con una normativa vincolante il confronto, che assume a volte i contorni di una guerra di religione, tra i doomers, i catastrofisti, che temono le conseguenze imprevedibili per la stessa umanità di uno sviluppo incontrollato e spregiudicato dell’IA; e i boomers, che ritengono che grazie all’IA possano invece ‘esplodere’ progressi scientifici capaci di aiutare a risolvere le tante crisi dei giorni nostri, a cominciare da quella ambientale.
Altri paesi, come la Gran Bretagna e gli Stati Uniti, preferiscono invece modelli che, senza prevedere norme rigide, favoriscano la ricerca attraverso forme di sostegno, di indirizzo e di autodeterminazione da parte delle imprese. Vi sono poi nazioni, a cominciare dalla Cina, la cui normativa tiene fortemente conto delle prospettive anche di controllo sociale che l’uso dell’IA può favorire.
Ci fermiamo al momento qui. Attendiamo il testo definitivo della proposta: e ci auguriamo che anche da noi aumenti intanto la conoscenza, e la discussione, su un tema che sta già cambiando le nostre vite e ancor più le cambierà in futuro.
Lascia un commento