Nei mesi scorsi il dibattito sull’Intelligenza Artificiale (IA) ha visto emergere il nuovo concetto di Agentic AI (che potremmo approssimativamente tradurre come intelligenza artificiale «agente»).
Mentre l’IA tradizionale esegue compiti specifici creando ad esempio contenuti come testi, documenti, immagini ed audio servendosi di dati precedentemente acquisiti e sotto input e controllo umani, l’Agentic AI può svolgere attività complesse non limitandosi ad una funzione di informazione o di supporto, ma «agendo» con un livello elevato di autonomia, prendendo decisioni ed attuandole in proprio.
Rispondendo ad un «prompt» umano, il modello Agentic raccoglie autonomamente dati da fonti diverse, costruisce percorsi, identifica i passaggi necessari, suddivide i compiti tra le componenti di sistema, coordina le soluzioni proposte, identifica le migliori tra quest’ultime in relazione alla finalità da raggiungere, adatta i suoi comportamenti e le scelte contingentemente operate all’emergere di fatti nuovi e, finalmente, «agisce»: porta cioè a conclusione il compito affidato senza che sia necessario un ulteriore intervento umano.
I campi di applicazione superano quelli fino ad oggi consentiti dai Large Language Models (LLM) che forniscono principalmente output testuali o visuali su richiesta dell’uomo. Ne indichiamo alcuni, senza presunzione di completezza.
Ed allora potremmo avere un «agente» che su nostra richiesta visita un sito di prodotti alimentari, li valuta, li compara e procede all’acquisto; analogo percorso potrebbe seguirsi per programmare un viaggio, organizzare una conferenza, arredare una casa. Ancora, l’Agentic AI potrebbe essere utilizzato come chatbot nel servizio clienti (customer service) per risolvere i problemi segnalati dagli utenti rivolgendosi direttamente ai tecnici competenti al fine di riattivare una interruzione di corrente o una linea telefonica; o per gestire in via autonoma un inventario e un magazzino; per intervenire nel campo della creazione di contenuti per professionisti di settori creativi; per automatizzare aspetti dell’azione amministrativa e, nel settore sanitario, operare in campi anche direttamente connessi a quello medico come la gestione delle urgenze e delle dismissioni o l’identificazione e l’attuazione di trattamenti di cura personalizzati; per contribuire ai servizi di intelligence e agli interventi di cybersecurity identificando minacce e anomalie nel traffico dei network e nei comportamenti degli utenti ed adottando tempestivamente le misure necessarie.
Accanto agli indubbi vantaggi della celerità delle risposte agli input ricevuti e della loro compiuta attuazione, sono però evidenti i rischi che potrebbero derivare da questa ulteriore limitazione, se non esclusione, dell’intervento umano nei processi decisionali che fanno uso di IA: specialmente se, come sembra, si potrà presto passare dall’interazione umano-agente a quella agente-agente come nel recente programma A2A (Agent-to-Agent) di Google DeepMind.
E, nel dare seguito alle richieste avanzate, ci troveremo allora davanti al problema del rispetto da parte dell’Agente delle norme che oggi disciplinano la sperimentazione e l’uso dell’IA (si pensi sul tema alla normativa rigorosa dell’Unione Europea); a quello della responsabilità, ove un «agente» compia un errore o procuri un danno; alle sempre ricorrenti polemiche sulla tutela della proprietà intellettuale in relazione alle fonti e ai dati utilizzati; alle questioni della trasparenza, dei biases, dei comportamenti discriminatori; alla tutela della privacy; ai rischi per la sicurezza; alle potenziali frodi che potrebbero derivare da una ingerenza criminale nei processi decisionali, senza controllo umano, attraverso acquisti non necessari o operazioni finanziarie fraudolente.
È quindi necessaria una riflessione sui problemi che pone l’utilizzo di questo nuovo modello che sappia però coinvolgere, oltre ai legislatori, anche i ricercatori e coloro che ne promuovono l’utilizzazione, gli stakeholders privati. Non riteniamo convincente ricorrere ancora una volta, come si è fatto finora, solo ad un intervento normativo con gli strumenti giuridici ad oggi utilizzati. Abbiamo visto come il consueto ricorso alla iper-regolamentazione legislativa non sia soltanto lento, complesso, lacunoso e spesso di non facile attuazione: ma, come nel caso dell’intelligenza artificiale e del suo continuo sviluppo, non abbia saputo adeguatamente prevedere, comprendere e disciplinare il progresso tecnologico.
Se i decisori pubblici non sapranno identificare nuovi modelli di intervento e di normazione diversi dai tradizionali schemi novecenteschi (la «legge» ed il suo complesso processo di attuazione), continueremo ad ascoltare, attoniti, il monito scespiriano: «ci sono più cose in cielo e in terra, Orazio, di quante ne possa sognare la tua filosofia».
E sarà allora sempre più difficile affrontare le nuove «cose» che l’intelligenza artificiale, con sempre maggiore velocità, porrà in terra davanti alla nostra stanca «filosofia». A cominciare nei prossimi anni dall’avvento dell’Intelligenza Artificiale Generale, GAI, che potrebbe cambiare molti degli stessi paradigmi su cui si fonda la nostra civiltà.

BALZANI VINCENZO dice
Finalmente un articolo che chiarisce bene i concetti principali del problema.