For a Human-Centered AI

Diritto e potere nell’era dell’Intelligenza Artificiale

17 Marzo 2022

Rischi e benefici dell’impiego pervasivo delle tecnologie ad Intelligenza Artificiale, soprattutto in ambito medico.

Sentiamo spesso utilizzare espressioni forti come “rivoluzione tecnologica”, “transizione verso nuove dimensioni”, “rovesciamento in termini di sviluppo” per parlare dell’avvento delle nuove tecnologie ad Intelligenza Artificiale (di seguito IA) ed è quindi necessario fare un po’ di chiarezza perché il cittadino si senta partecipe del processo e non solo un mezzo di quanto accade. L’IA, infatti, sta gradualmente permeando sfere sempre più ampie del nostro vissuto, percolando dal pubblico al privato in maniera non sempre percepibile, perlomeno consciamente, motivo per cui serve adottare un approccio sempre più poliedrico e multidisciplinare all’esame dei benefici, ma anche dei rischi o quantomeno delle sfide, inerenti il processo.

Uno degli ambiti più interessati dall’IA è stato negli ultimi anni quello della medicina, di cui ha ampiamente disquisito la dott.ssa  Marta Fasan nel convegno finale del progetto TrAIL (Trento AI Laboratory, responsabile scientifico Carlo Casonato), che ha sottolineato l’importanza della dimensione giuridica per l’ascesa di IA in questo campo (ma non solo). L’IA è il principale strumento attraverso cui realizzare un nuovo mutamento di paradigma in campo medico (deep medicine) per promuovere una diagnosi e delle terapie sempre più precise e personalizzate e incrementare la prevenzione dei singoli e la self-managed health, ovvero una salute sempre più gestita dal singolo, responsabilizzato e consapevole, che partecipa attivamente alle scelte che riguardano la sua persona.

I vantaggi dell’applicazione delle nuove tecnologie sono molteplici, a partire dai tempi ridotti per produrre un farmaco senza inficiarne la sicurezza, i benefici su larga scala per la salute pubblica (pensiamo ad esempio allo screening delle pandemie), processi diagnostici più accurati, sviluppo di piattaforme mediche intelligenti che forniscano supporto ai medici, chatbot, app e così via.

Oltre alle migliorie apportate in campo tecnico e diagnostico, l’applicazione dell’IA in medicina si traduce anche in termini di EFFICIENZA in quanto aiuta ad ottimizzare la gestione del tempo, spesso cruciale, basti pensare alla gestione delle emergenze in un pronto soccorso o la riduzione dei tempi di diagnosi.

Ne conseguono poi dei vantaggi anche dal punto di vista giuridico e sociale, come la PROMOZIONE dell’EGUAGLIANZA SOSTANZIALE e il DIRITTO ALLA SALUTE.

Serve però capire anche le inevitabili implicazioni giuridiche, ovvero se la diffusione di IA in medicina possa avere un impatto sui diritti e sui principi della questione medica, o se esistano criticità collegabili al suo impiego in medicina e quali eventualmente siano. Come in quasi ogni cosa, infatti, i vantaggi comportano anche rischi e criticità, ad esempio quelle legate ai dati (possibilità di avere dati poco rappresentativi, viziati da bias e discriminazioni, con il rischio di reiterare errori e pregiudizi già presenti nella società), divario tecnologico (tecnologie molto complesse e al momento costose che potrebbe portare a accesso diseguale ai benefici che AI promette e a rischi sempre maggiori per categorie più vulnerabili, come gli anziani). Molti medici inoltre potrebbero non essere molto convinti dei nuovi approcci con IA e viceversa.

Un altro pericolo è la cosiddetta distorsione dell’automazione, ovvero medici e pazienti potrebbero perdere l’approccio critico alla tecnologia e non riconoscerne gli errori, affidandovisi ciecamente, oppure si potrebbe incorrere nella diminuzione delle competenze dei medici (deskilling) che si disabituerebbero a certe cose demandandole unicamente alla tecnologia (rischio di paternalismo tecnologico). Una prima possibile soluzione è rendere le questioni meno data driven ma più “umanizzate” e basate su un corpus di conoscenze pregresso, soprattutto nel campo medico ma anche in quello giuridico, dove si parla di un impiego di IA nei tribunali per l’elaborazione delle sentenze, magari in casi di minore entità, o per efficientare il processo giuridico.

Serve quindi garantire una piena spiegabilità e comprensibilità dei processi che hanno portato il sistema AI a un determinato significato e assicurare che gli algoritmi non siano discriminatori (principio di non discriminazione algoritmica), ad esempio incentivando l’inclusività e il pluralismo anche nei team che lavorano a questi programmi.

Parallelamente, i cittadini devono poter dare o meno il consenso all’impiego di tecnologie IA (principio di non esclusività).

Una riflessione è stata data anche dalla ricercatrice FBK Chiara Ghidini, che si occupa proprio di IA simbolica applicata alla medicina nell’unità Process and Data Intelligence che dirige. Secondo la ricercatrice, proprio per la pervasività e le implicazioni che l’IA può avere in questo ambito sarebbe auspicabile stimolare a riguardo lo stesso dibattito avvenuto sulle biotecnologie e sul nucleare, sia tra esperti che con il pubblico generale.

Per esempio, siccome ormai ognuno di noi genera in maniera più o meno costante e consapevole dei dati, serve capire se poterli donare per la ricerca oppure no, quali sono i possibili risvolti di ciò, se c’è alle spalle un contesto politico o giuridico che tutela i singoli. Sulla scorta di queste riflessioni, Ghidini ha esposto poi quali sono, secondo lei, le tre sfide più imminenti che si prospettano a chi si occupa di Intelligenza Artificiale:

  1. Tendenza incrementale a fare sempre di più attraverso l’IA:

Mentre finora l’IA è stata applicata in ambiti ben determinati e circostanziati, quello che si sta cercando di fare adesso è indurla ad affrontare problemi complessi, ad esempio assistere un paziente per un lungo periodo di tempo, associare la cura della malattia al benessere psicologico, riconoscere un’emozione o uno stato psicologico.

  1. Irruzione della necessità di essere affidabili e comprensibili da un punto di vista tecnologico, coinvolgendo sempre l’essere umano nel processo (human in the loop). I ricercatori devono infatti tenere presente – e cercare di superare – i pregiudizi (bias), l’opacità decisionale (non sapere perché sono arrivato a una conclusione è un problema), capire l’output creato da una tecnologia ad IA. Non secondario è poi il problema dell’accessibilità di queste tecnologie, soprattutto a un pubblico di non nativi digitali.

Riguardo ai temibili “pregiudizi” dell’intelligenza artificiale, Ghidini evidenzia però che il fatto che ci siano, e che emergano nell’impiego delle tecnologie in questione, significa che certi preconcetti esistono di fatto nella società ed è bene che vengano posti alla nostra attenzione, per cercare di risolverli e superarli.

  1. Spostamento dalla predizione alla raccomandazione: i nuovi algoritmi devono cercare di fornire prevalentemente raccomandazioni utili ad evitare qualcosa o a farlo in modo appropriato. Ad esempio, si punta a creare un algoritmo che non ti dica che andrai a sbattere contro un muro, ma che ti suggerisca piuttosto come evitarlo.

Anche Paolo Traverso, direttore dell’unità Strategia di Marketing e Sviluppo Business di FBK, ha posto l’accento sulla necessità di regolamentazione come prossima sfida del settore: la persona non deve essere governata dalla tecnologia, ma i regolamenti allo stesso tempo non devono essere un freno per lo sviluppo dell’IA, ma piuttosto dare la possibilità di far capire alle persone perché è importante poter usare i loro dati, a quali scopi servono e come vengono impiegati. E il fatto che, nelle tecnologie ad IA, esista la questione del transfer control, ovvero della necessità dell’intervento umano ad un certo punto del processo (pensiamo alla medicina ma anche all’automotive o al sistema giuridico) è sintomatico del fatto che le macchine non solo hanno dei limiti che richiedono l’intervento umano per essere superati, ma è anche giusto e auspicabile che sia e rimanga così.


Autore/i