For a Human-Centered AI

Comprendere l’IA – Intervista con Tomaso Poggio, Professore al MIT di Boston

29 Giugno 2023

Tomaso Poggio dirige il Center for Brains, Minds and Machines ed è un pioniere a livello internazionale nel campo dell'Intelligenza artificiale. In occasione del workshop di settore "DEEP LEARNING: Theory, Algorithms, and Applications" che si è svolto a Povo - dove aveva lavorato ai tempi di Luigi Stringa - gli abbiamo fatto qualche domanda per capire qualcosa in più sull'IA e sul nostro futuro.

  • Professor Poggio, lei ha una lunga storia nel campo dell’Intelligenza artificiale, essendone un pioniere. Come ha visto evolversi il settore negli anni?

Avevo lavorato anche qui da voi ai tempi di Luigi Stringa. Il settore si è evoluto all’inizio lentamente e a un certo punto molto velocemente. La trasformazione critica c’è stata quando si è passati dalla programmazione dei computer al loro allenamento, al training, negli anni ‘90. A quei tempi solo pochi, come me, credevano nel machine learning. I ricercatori hanno cominciato a convincersi una decina di anni fa. Si è passati dal dare istruzioni dettagliate ai computer al dare loro un allenamento. Un vero e proprio cambio di paradigma. Un aspetto che coinvolge non solo il settore dell’Intelligenza artificiale ma tutto l’ambito più ampio della computer science.

 

  • Nel prossimo futuro, in quali settori l’Intelligenza artificiale che si sta sviluppando in questi anni porterà un percepibile miglioramento della qualità della vita?

È difficile da dire perché i campi di applicazione sono tantissimi. Dove ci sono computer ci possono essere dei miglioramenti e i computer sono dappertutto: dalle automobili agli aerei, nel campo della medicina, delle banche, delle assicurazioni. Questi sistemi interagiranno sempre più con le persone.

 

  • A questo proposito, vede anche dei problemi? Come evitarli?

È una tecnologia molto potente e come tutte le tecnologie potenti può portare rischi e benefici, come l’energia nucleare. Io non credo che in questo caso ci sia un vero e proprio rischio esistenziale, il “computer cattivo” che vuole dominare l’umanità, come in alcune opere di fantascienza. Il pericolo più sottile è che questa nuova tecnologia, come quella alla base di ChatGPT, diffonda informazioni sbagliate e che la nostra conoscenza umana possa essere annacquata e distorta. È una cosa che già succede, indipendentemente da questa tecnologia, con le fake news. Probabilmente ci dovrà essere una trasformazione nell’Internet, ad esempio con browser predisposti a rilevare solo notizie certificate. Cosa che si può già fare con le tecnologie attuali.

 

  • Cosa ne pensa delle azioni di regolamentazione europee?

Nulla è perfetto ma è un’ottima cosa che comincino ad esserci dei regolamenti. Non conosco i dettagli, ma un mio ex studente ha lavorato negli ultimi anni proprio in questo ambito. La nuova regola, ad esempio per le applicazioni che si usano negli ospedali, è che la macchina possa imparare ed evolversi ma sempre con un medico che controlla. Mi sembra un sistema che si potrebbe applicare anche in altri campi, come ad esempio quello della scrittura: un monitoraggio di esseri umani esperti sulla macchina, una collaborazione. Un modo molto naturale anche per evitare che ci sia molta gente che possa perdere il lavoro.

 

  • La ricerca nel Suo settore verso quali frontiere sta andando?

Per il machine learning tradizionale abbiamo delle teorie. Con il deep learning, sviluppato negli ultimi 20 anni, invece, noi usiamo degli “aggeggi” che funzionano ma che non sappiamo molto bene perché funzionano. Nel campo della ricerca è già accaduto anche in passato, come nel caso di Volta con l’elettricità. All’inizio ci furono moltissime applicazioni senza che la gente sapesse esattamente cosa fosse l’elettricità. Solo 60 anni dopo, con le equazioni di Maxwell, abbiamo avuto una teoria. Anche adesso siamo in una situazione simile: nel mio settore stiamo studiando per avere una teoria. Recentemente abbiamo fatto molto e molto rimane ancora da fare.


Autore/i