For a Human-Centered AI

Le macchine imparano?

4 Settembre 2017

Marco Cristoforetti, ricercatore dell'unità MPBA di FBK e tra i curatori di uno spazio al Meeting di Rimini, parla dell'importante ruolo giocato dalle macchine e dalle tecniche di apprendimento automatico nelle applicazioni biomediche. Con uno sguardo all'etica e al futuro

Il Meeting di Rimini, svoltosi dal 20 al 26 agosto scorsi, ha visto quest’anno la partecipazione di due ricercatori della Fondazione Bruno Kessler: Cesare Furlanello, responsabile dell’unità MPBA (modelli predittivi per la biomedicina e l’ambiente) e Marco Cristoforetti, ricercatore nella stessa unità. In particolare Cristoforetti è stato tra gli organizzatori dello spazio “What? Macchine che imparano”, curando due incontri: nel primo, incentrato sul tema della ricerca bio-farmacologica e del “machine learning”, sono intervenuti Furlanello e Eugenio Aringhieri, CEO del Gruppo Dompé e presidente del gruppo Biotecnologie di Farmindustria. Il secondo, dal titolo “Le macchine imparano?”, è stato invece animato da Mauro Ceroni, professore di neurologia all’Università di Pavia, e Pietro Leo, responsabile scientifico per la direzione innovazione, tecnologia e ricerca di IBM Italia.
Cristoforetti, fisico teorico, lavora come data scientist in diversi progetti che riguardano l’applicazione dell’apprendimento automatico (dall’inglese “machine learning”) a sistemi complessi, in particolare nell’ambito della biomedicina.

Marco, quali sono stati gli spunti più interessanti emersi durante gli incontri?
L’attenzione è stata rivolta in particolare all’applicazione del machine learning alla medicina, specialmente per ciò che riguarda la cosiddetta medicina personalizzata, che si basa sulle differenze individuali sfruttando ad esempio la variabilità genetica o le caratteristiche del microbioma per giungere a diagnosi e cura del paziente.
D’altra parte ormai l’accumulo di dati digitali è in continuo aumento, e questo permette, da un lato, di utilizzare tecniche di machine learning molto più facilmente di un tempo, mentre dall’altro lo rende quasi indispensabile, perché lavorarci a mano diventa molto complicato. Ad esempio Pietro Leo ha sottolineato che se un medico radiologo deve vedere 4000 radiografie in una giornata è probabile che si stanchi e perda efficienza: è quindi evidente che se un computer fa almeno una prima scrematura c’è un risparmio di energia e tutto il sistema diventa più efficace. Lo stesso Aringhieri, dal punto di vista di chi produce i farmaci, ha sottolineato la necessità di ricorrere a questi strumenti data la grande mole di dati a disposizione.
Devo dire che la risposta del pubblico è stata molto positiva. L’audience era molto eterogenea, e spaziava da ragazzi delle scuole superiori a persone più adulte interessate all’argomento, ma non addette ai lavori, fino a veri e propri esperti. Ne è venuto fuori un dibattito molto vivace, con tante domande da parte del pubblico.

Un aspetto interessante è quello della multidisciplinarità: queste ricerche coinvolgono contemporaneamente medici, fisici, matematici e informatici. È una convivenza difficile?
C’è sicuramente del lavoro da fare. Si tratta di mondi molto diversi che dovrebbero cercare sempre più di contaminarsi, anche a livello di formazione. Un medico che ha a disposizione questi strumenti, se li vuole usare efficacemente, dovrebbe essere lui stesso in grado di gestirli: per ora il tutto si basa sull’interazione, ma la soluzione ottimale un domani sarebbe che il medico sappia già capire e analizzare i dati. Al tempo stesso noi, quando elaboriamo i nostri modelli, dovremmo sempre avere la consapevolezza che il codice che scriviamo non è tutto: c’è sempre la necessità di capire qual è la domanda a cui vogliamo rispondere esattamente e quindi di interfacciarsi con il medico.

 

Un’altra questione delicata è rappresentata dai risvolti etici e sociali del machine learning. Se ne è parlato durante gli incontri?
Sì, in particolare nel secondo incontro. Una delle domande più ricorrenti è stata “fino a che punto può spingersi una macchina?”, che tocca un punto cruciale, quello della responsabilità: esiste un limite a ciò che posso demandare alla macchina, rinunciando a parte del controllo? E poi: “esisterà mai una macchina in grado di sviluppare un’autocoscienza?”.
Si tratta di temi che attraggono molto il pubblico, anche per effetto del ruolo giocato dai media, che spesso presentano questi aspetti in modo sensazionalistico: giustamente la gente comincia a porsi queste domande, sia in senso positivo che negativo.
Tuttavia, la questione è decisamente prematura: come ha sottolineato Pietro Leo, a oggi siamo ancora ben lontani da uno scenario così avanzato. Le macchine sono sicuramente in grado di imparare certi compiti specifici e molto ben definiti, ma non sono ancora capaci di fare collegamenti e mettere insieme più cose diverse. Ad esempio, una macchina oggi può riuscire a rispondere a una domanda specifica, ma non è ancora in grado di fare essa stessa domande, un compito che richiede capacità ben superiori.
Detto ciò va anche sottolineato che, se anche riuscissimo a costruire macchine in grado di fare tutto, non si sa nemmeno quanto ciò sarebbe realmente interessante e vantaggioso per noi.

Dove potranno arrivare le macchine in futuro?
Sinceramente non lo so, si tratta di un problema aperto. Di certo la strada da fare è ancora molto lunga, e fa sorridere pensare che negli anni cinquanta, agli albori dell’intelligenza artificiale, a un certo punto si pensò che bastasse chiudere in una stanza dieci scienziati per un mese per arrivare a concepire e costruire una macchina in grado di comportarsi come un uomo. In realtà solo ora, 60 anni dopo, stiamo iniziando a guardare con fiducia allo sviluppo dell’intelligenza artificiale.


Autore/i