L’IA che diventa “normale”: la visione di Federico Cabitza per il futuro della salute digitale
Con l'inizio del suo mandato alla guida del Centro Digital Health and Wellbeing (DHWB), Federico Cabitza delinea una missione chiara: portare l'intelligenza artificiale fuori dai laboratori per trasformarla in una pratica quotidiana e consolidata.
Prof. Cabitza, la sua nomina a direttore del centro Digital Health and Wellbeing decorre dal 1° febbraio. Quali sono i nodi cruciali e le sfide prioritarie che intende affrontare nel primo anno di mandato?
Un centro di ricerca in sanità digitale deve affrontare sfide oggi sempre più impegnative: viviamo in un mondo interconnesso (tra popoli e culture, ma anche tra esseri umani, animali e ambiente), con aspettative di salute crescenti e una longevità maggiore. Eppure resta ampio il divario tra età media di decesso e anni vissuti in buona salute. Soprattutto quest’ultima sfida, per come la vedo io, è spesso trascurata e dovrebbe invece divenire centrale: allungare la durata della vita in salute delle persone, ed evitare che le ultime ‘mille settimane’ di vita diventino un lungo periodo di crescente dipendenza e bisogno di cure, fino a mettere sotto pressione la sostenibilità del nostro servizio sanitario universalistico, equo e solidale. Un centro di ricerca come il nostro ha tutte le caratteristiche per operare in questo contesto complesso: ha talenti, competenze, esperienze, e la missione di fare una ricerca che possa non solo essere condivisa con la comunità scientifica internazionale, ma anche trasferita alle comunità di cittadini e cittadine a cui si rivolge. D’altro canto, questo non avviene per magia. Io credo molto nel lavoro di squadra e nell’intelligenza collettiva, tema su cui ho anche condotto delle ricerche in passato. Dedicherò quindi i primi tempi a creare le condizioni perché l’intelligenza collettiva del Centro possa esprimersi al meglio: il primo passo sarà ovviamente conoscere ogni membro della squadra e farsi conoscere da ciascuno di loro: condividerò con loro la mia visione, per capire in che modo ciascuno vi si riconosca e in che misura possa contribuirvi. E la mia visione sulla intelligenza artificiale in sanità può essere sintetizzata da una parola sola: “normalizzazione”. Fin dal primo anno di attività vorrei lavorare per tradurre un’idea di innovazione in sanità che esca dalla dimensione dell’eccezionalità — quella della demo, del progetto speciale, della sperimentazione isolata — per entrare nella quotidianità del lavoro sanitario e nelle pratiche dei professionisti della salute. Vorrei lavorare alla definizione di un metodo di normalizzazione, affinché l’intelligenza artificiale in sanità diventi sempre più una tecnologia “normale”, una componente di pratiche consolidate e di un ambiente che facilita il “buon lavoro”, e quindi che sia veramente human-centered. Perché questa idea si realizzi, ci sono tre elementi da coltivare. Il primo è sviluppare una cultura della valutazione: non basta sapere se un modello “funziona” in termini astratti o all’interno delle mura di un laboratorio; serve capire se il sistema è affidabile, robusto, utile nel contesto reale, e conoscere bene sia i punti di forza sia i limiti, i costi e le esternalità che introduce (in termini di tempo, complessità, cambiamenti di pratiche e responsabilità, e dipendenza tecnologica). Il secondo è lo sviluppo (e mantenimento) di una solida e responsabile governance dei dati: l’IA in sanità funziona bene o fallisce — spesso in modo silenzioso — in base alla qualità, tracciabilità e significato dei dati su cui opera, e al modo in cui quei dati vengono prodotti e riusati. Il terzo è l’attenzione per la dimensione della adozione: quella fase che il regolamento europeo chiama deployment, diffusione, come se fosse un processo autonomo, quasi meccanico, ma che a me piace assimilare ad una azione volontaria, consapevole e informata di accoglimento e sviluppo — come si fa con una idea, o un membro della propria comunità — che è rivolta a qualcosa che ha bisogno di sollecitudine, attenzione e cura per crescere: il buon uso degli strumenti digitali. Questo richiede formazione, definizione di protocolli d’uso, criteri trasparenti di auditing e condivisione di responsabilità chiare. Se questi tre aspetti non diventano prioritari nel nostro lavoro di progettazione, il rischio è produrre “innovazione apparente”: qualcosa che brilla e che guadagna l’effimera attenzione della cronaca, ma che non regge alla prova del tempo e non diventa veramente routine, la normalità che porta frutti nel tempo.
Lei raccoglie il testimone di Stefano Forti. Come intende bilanciare la continuità dei progetti già avviati dalla Fondazione con la spinta innovativa che caratterizza la sua visione?
Sono una persona fortunata: Forti ha fatto un lavoro magnifico e io posso raccogliere i frutti di un lavoro di ricerca e sviluppo che affonda in anni di dedizione e attenzione ai bisogni dei cittadini e degli assistiti della Provincia Autonoma di Trento. La sua eredità sul contributo delle tecnologie digitali alla prevenzione, salute e benessere dei loro utenti è sia un punto di partenza che uno sprone a continuare a costruire su quella base altre soluzioni che mettano le potenzialità della IA a disposizione della più ampia platea di persone. D’altro canto, ritengo che continuità e innovazione non siano in opposizione, se si è chiari e onesti su cosa si vuole conservare. La continuità che mi interessa è quella del capitale umano e organizzativo: relazioni con il territorio, progetti che hanno già costruito fiducia, competenze interne, infrastrutture che funzionano, esperienze fondamentali per capire come migliorarsi. Per me l’innovazione è cambiare l’unità di progettazione: non aggiungere “un algoritmo in più”’ o “un’app in più”’, ma costruire un sistema socio-tecnico migliore — più resiliente, più efficace — che metta davvero al centro le persone e il loro lavoro. Significa progettare e studiare come queste soluzioni entrano nei flussi di lavoro per restarci; come se ne misura l’impatto su esiti e processi; come si gestiscono eccezioni e fallimenti; e come si mantengono e si fanno circolare competenze e conoscenze. In altre parole, l’innovazione di cui possiamo e vogliamo occuparci non riguarda solo la tecnologia ma — proprio perché siamo costruttori di idee e tecnologie nel senso più ampio del termine — il processo di progettazione e la capacità di rendere tali soluzioni governabili e sostenibili nel tempo. E questo, per me, è anche un modo rispettoso di valorizzare ciò che è stato costruito prima.
Il Centro DH&W è uno dei tre motori di TrentinoSalute4.0. In che modo intende evolvere questa sinergia con PAT e ASUIT per garantire che la sanità digitale generi valore concreto per il territorio?
Il valore concreto nasce quando si riesce a trasformare l’innovazione in una filiera corta e ripetibile, in un approccio orientato al risultato concreto: partire dal bisogno clinico reale; definire il caso d’uso con precisione; co-progettare l’intervento con i professionisti; sperimentarlo in maniera rigorosa e controllata; misurarne gli effetti e impatti, non solo sul piano quantitativo; e poi — solo poi — trasferimento, scaling, e diffusione. Con la Provincia autonoma di Trento vedo una responsabilità abilitante: costruire e garantire l’infrastruttura comune della sanità digitale — standard condivisi, interoperabilità tra sistemi, regole chiare di accesso e uso dei dati, sicurezza e qualità — trattando questi elementi come un patrimonio pubblico del territorio, non come soluzioni proprietarie o frammentate per singolo ente o singolo progetto. Con l’Azienda sanitaria universitaria vedo una responsabilità operativa: portare le soluzioni dentro i processi reali di cura, adattarle ai flussi di lavoro e ai vincoli di reparto, formare le persone che le useranno, monitorarne l’adozione e gli effetti, e poi documentare e condividere in modo rigoroso i risultati con la comunità scientifica. E aggiungo un punto per me decisivo: questa filiera deve includere non solo l’alta specialità e l’ospedale, ma anche medicina di base, assistenza territoriale, infermieri e professionisti che reggono la continuità assistenziale, spesso con risorse limitate. Se funziona anche lì, l’IA diventa una capacità strutturale del territorio, non una semplice somma di progetti.
In un recente articolo pubblicato su Agenda Digitale, lei afferma che l’AI non è solo un software da installare, ma un nuovo elemento dell’ambiente di lavoro che impatta direttamente sui lavoratori. Questa sua analisi, ci fa pensare che sull’interazione uomo-AI, lei non si concentra solo sulle “macchine”, ma sulle conseguenze reali che queste hanno sulle persone. Insieme a Luciano Floridi, lei ha indagato il rapporto con le “nuove macchine”. Quale ruolo vede per l’AI generativa nella sanità del futuro? Sarà un supporto decisionale o cambierà radicalmente il paradigma della cura?
Mi ricollego proprio a quanto appena detto. Né l’IA generativa, né quella predittiva cambieranno radicalmente il paradigma, ma saranno agenti di cambiamento del “tessuto connettivo” del lavoro: il modo di produrre e consultare documentazione; le modalità di coordinamento e di comunicazione tra professionisti — permettendo passaggi di consegne più efficienti, favorendo la condivisione di informazioni (anche da testi non strutturati o conversazioni informali); gli scambi tra professionisti e pazienti, rendendoli più diretti e chiari, una vera risorsa di cura. Come dicevo, l’obiettivo di un centro di ricerca come il nostro dovrebbe essere studiare come rendere l’IA una tecnologia normale, quasi invisibile. Non un oggetto estraneo che irrompe nel lavoro clinico, ma qualcosa che si integra negli strumenti e nei processi sanitari.
Le faccio qualche esempio. Immagini sistemi che ascoltano e trascrivono conversazioni cliniche (con tutte le garanzie necessarie) e ne estraggono delle note per aumentare l’aderenza terapeutica degli assistiti; oppure sistemi che intervistano i malati sia prima che dopo le visite per, rispettivamente, produrre sintesi per i medici, o valutare il grado di comprensione e di stress dei pazienti; sistemi che da tali conversazioni e interviste compilano la cartella clinica, o il referto da validare, o che fanno un doppio controllo di coerenza e completezza e verificano: “manca qualcosa?”, “c’è una discrepanza con la storia del paziente?”, “questa terapia è compatibile con quel dato?”; e che poi, ovviamente, sono a disposizione di ogni operatore che ne abbia diritto per rispondere a domande sul paziente, per recuperare rapidamente linee guida, lavori scientifici pertinenti, o per suggerire (solo suggerire) linee d’azione e alternative, esplicitando pro e contro delle opzioni principali. Questo si avvicina molto all’ideale del disappearing computation: la computazione che non si impone, ma sostiene il lavoro senza invaderlo o stravolgerlo. E da qui discende un obiettivo naturale: l’IA dovrebbe aiutare i professionisti della salute a lavorare meglio insieme, a collaborare. Non solo “potenziare il singolo medico” (augmentarlo, come si dice in gergo), bensì facilitare collaborazione e multidisciplinarietà: far emergere punti di vista diversi, integrare competenze, coordinare interventi, e soprattutto far parlare tra loro specialità che oggi si incontrano troppo poco, o troppo tardi. Se la tecnologia rende quella conversazione più informata, più tempestiva e più tracciabile, allora sta già migliorando la cura in modo tangibile. Nella gestione dei pazienti complessi e con multimorbilità, in numero sempre crescente per l’invecchiamento della popolazione, la qualità della cura dipende sempre di più dalla qualità del lavoro di squadra, come osservano diversi studi. E questo vale non solo nell’alta specialità ma anche dove il carico è quotidiano e le risorse sono più sotto sforzo e con minore visibilità e riconoscimento: medici di famiglia, infermieri, farmacisti e professionisti della continuità assistenziale, chiunque sia coinvolto a rispondere a esigenze di cura e assistenza di un cittadino. Quando succede questo, l’IA diventa “normale”.
Data la sua esperienza al Galeazzi e al San Raffaele, grandi ospedali milanesi, come intende accorciare la distanza tra la ricerca di base di FBK e l’applicazione clinica al letto del paziente?
Io allargherei lo sguardo: l’IA non riguarda solo solo la fase critica della malattia, al “letto del paziente”, ma anche prevenzione, continuità e riduzione del rischio. Accorciare la distanza tra ricerca e pratica significa quindi, prima di tutto, progettare con la clinica e non “per” la clinica, con i medici e non per i medici, con i pazienti, non considerandoli utenti passivi, bensì co-creatori di senso, e produttori di valore (ad esempio tramite i loro dati, le loro preferenze e impressioni). La ricerca di base è indispensabile, ma il trasferimento fallisce spesso nell’ultimo miglio: integrazione, usabilità, manutenzione, responsabilità, formazione, gestione delle eccezioni. Io vorrei rendere sistematico un percorso, un metodo FBK alla sanità digitale: selezione di casi d’uso dove il beneficio è misurabile e il bisogno chiaramente definito; validazione esterna e multi-contesto come prerequisito; e adozione di metriche clinicamente sensate. In medicina, gli errori non pesano tutti in eguale misura; le distribuzioni statistiche cambiano; i casi rari contano e riguardano persone in carne ed ossa. Se continuiamo a parlare solo di accuratezza media, rischiamo di parlare una lingua che non serve ai clinici e che, alla lunga, erode fiducia.
E poi c’è un aspetto organizzativo: la ricerca deve produrre anche “artefatti di adozione”, non solo modelli computazionali. Protocolli d’uso, linee guida operative, strumenti di monitoraggio, modelli di governance. È questo che trasforma una tecnologia in una capacità; su questo aspetto reputo strategico che diversi centri di FBK si parlino e si coordinino tra loro, per mettere a fattor comune lezioni apprese e best practice acquisite sul campo, facendo circolare e condividendo competenze complementari e convergenti, per rispondere alle esigenze del contesto complesso ed eterogeneo che caratterizza la sanità contemporanea, possibilmente con interventi orchestrati e sinergici a livello progettuale, ma anche semplicemente con la volontà di fare della buona ricerca insieme.
C’è una domanda che non le hanno ancora fatto, ma alla quale le piacerebbe molto dare una risposta per far conoscere meglio chi è Federico Cabitza?
Il modo migliore per conoscermi è parlare o lavorare con me — ancora meglio: fare ricerca insieme a me, perché è lì che mi sento più a mio agio. Se dovessi scegliere una domanda, allora sarebbe: “Che cosa la rende soddisfatto, nel suo lavoro?”.
Io vengo da una famiglia di medici, figli unici da quattro generazioni. Mio padre e mio nonno erano medici molto stimati, noti a livello nazionale; il mio bisnonno paterno, che non ho conosciuto, era un medico condotto, amato dall’intero paese dove operava. Erano tutte persone che curavano altre persone, nel senso più pieno del termine. Io ho scelto l’ingegneria, ma la mia aspirazione non è mai stata “fare tecnologia”: è contribuire, con gli strumenti che sviluppo e con le evidenze che mi aiutano a produrre, a far stare meglio le persone e a rendere la cura — come capacità di una comunità e di un sistema — più efficace, più equa, e più sostenibile.
Per questo, anche per me vale uno dei principi alla base della professione medica: primum non nocere. In vent’anni di lavoro tra informatica e sanità ho capito che una delle cose più fragili, e più preziose, è il rapporto tra chi cura e chi è curato, insieme alla qualità del ragionamento clinico che lo sostiene. La tecnologia dovrebbe migliorare la comunicazione, l’accesso alle migliori conoscenze disponibili e il processo decisionale; ma, nel farlo, non deve mettere a rischio né il rapporto di cura, né la qualità del ragionamento clinico. Quindi, se l’intelligenza artificiale riduce il carico routinario e documentale e restituisce tempo alla relazione di cura e alla comunicazione empatica, questo lo considero un bene concreto e un mio obiettivo professionale. Ma non deve farlo creando dipendenza, abbassando la vigilanza, o spostando la responsabilità in modo opaco. Questa idea mi ha portato a vedere la IA non come una macchina che “dà risposte”, bensì come un dispositivo che apre il ragionamento: che mette sul tavolo alternative, che argomenta pro e contro, che esplicita incertezze e trade-off (compromessi), e che rende più facile una discussione competente. La IA generativa è potente anche perché è convincente; la IA predittiva spesso lo è perché si porta dietro una reputazione di oggettività e accuratezza — non sempre meritata. Imparare ad affidarsi correttamente a questi strumenti, a raggiungere e mantenere quella che in letteratura si chiama appropriate reliance, cioè un affidamento calibrato e giustificato, è una delle abilità più importanti che può sviluppare un utente di sistemi IA, e un obiettivo che chi progetta questi sistemi dovrebbe porsi, per generare valore, senza nuocere.
Chiudo con un ultimo pensiero: anche chi progetta deve riconoscere i propri limiti. Gli ingegneri non sono demiurghi. E nessun centro di ricerca, per quanto ambizioso, può “risolvere” tutti i problemi a cui ho accennato sopra. Quello che posso promettere — quello che vorrei lasciare — è una direzione e un metodo, un metodo FBK per fare sanità digitale basato sulle prove di efficacia, un evidence-based design, che tenga insieme visione e concretezza, immaginazione e rigore, apertura internazionale e vicinanza al territorio. Se un giorno potrò dire, con sincerità, di aver contribuito a questo, e di averlo trasmesso a chi collabora con noi e a chi verrà dopo, allora potrò dire, con serenità, ‘sono soddisfatto’. È questa la mia idea di soddisfazione.