Secondo una notizia ANSA recente, un algoritmo è in grado di calcolare con buona precisione (si dice del 90%) la mortalità dei pazienti covid. Nulla di stupefacente, come invece sembra voler intendere la notizia. Le capacità statistiche della AI sono infinitamente più complesse di questa ‘scoperta’ già da decenni.
Ciò che rende interessante e inquietante la notizia è il suo modo. Altro sintomo della progressiva tentazione di delegare le scelte ad operatori matematici che in definitiva danno priorità esclusiva all’aspetto funzionale e logistico delle persone.
Il passaggio è cruciale. La propensione funzionalistica ha antichi pregressi, tutti nefasti, ma la sua deriva contemporanea delinea la possibilità di una nuova morale, che, come nel caso di innumerevoli orrori dell’umanità, riesce a prendere il sopravvento non a causa della compartecipazione dichiaratamente colpevole e generale, ma attraverso una pigrizia diffusa, accidiosa e omissiva, altrettanto colpevole, dell’opposizione al superamento di paletti ben precisi afferenti ai diritti umani inalienabili.
Questo percorso favorisce la gestazione di una morale sensibilmente differente, progressivamente affidata al calcolo e inesorabilmente drenata da ogni componente umanistica, che non di rado contraddice sia il principio di funzionalità che di logica pragmatica. Un professore del San Raffaele, proprio oggi, nella sua presentazione di un caso clinico, ha fatto una precisazione che la dice lunga a proposito di confusione e scarsa coscienza riguardo le responsabilità culturali e umane che abbiamo nei confronti della contemporaneità, in cui la tecnologia evolve a ritmi esasperati.
«Gli algoritmi ci dicono che il tal paziente è più a rischio di altri», questa la frase. Nell’affermazione vi è la tendenza tutta contemporanea nel delegare le responsabilità ad un ente, quello degli algoritmi, che di fatto non esiste.
La deificazione della AI passa per fraintendimenti come questo. Non è esatto affermare che «gli algoritmi ci dicono». Gli algoritmi sono applicazioni di calcolo che rielaborano nozioni di cui non sono la sorgente, nozioni che vengono dagli studiosi, permettendo indubbiamente di semplificare i calcoli probabilistici. Ma nel merito vero delle questioni non dicono assolutamente nulla.
È la scienza umana che determina le scoperte. Poi ha codificato gli algoritmi per la gestione di queste scoperte. Non sono gli algoritmi a dire che c’è rischio per un paziente rispetto ad un altro. Sono le determinazioni sperimentali degli studiosi. L’algoritmo, poi, ne elabora la statistica per semplificare la visione generale. Delegare a questa semplificazione la responsabilità decisionale su chi, ad esempio, ha precedenza nei fatidici triage, come sembra suggerire di fatto la notizia, è il prodromo di una deriva disumana che rischia di diventare criminale.
È necessario comprendere questa logica fondamentale. La AI non ha morale e non potrà mai avere una delega all’etica, neanche di sponda. L’algoritmo non è l’uomo e non può in alcun modo sollevare l’uomo dalla sua fattuale, istantanea, onnipresente responsabilità verso il suo simile, che sia il paziente, il migrante, il vicino di casa e, perché no, anche il nemico.
Lo studio di previsione è certamente utile, ma deve essere blindato da ogni possibile fraintendimento. Deve essere chiaro ad ogni costo che se esiste un diritto di previsione, questo non può essere per alcuna ragione trasformato in un altro diritto. Quello della selezione.
Sergio Galvan dice
Concordo Perfettamente.