For a Human-Centered AI

Che cos’è l’Intelligenza artificiale?

Professor Stock, che cos’è l’intelligenza artificiale?

Una definizione davvero comune a tutti non esiste. Dico sempre che se chiediamo a cento ricercatori, avremo (almeno) cento definizioni, o comunque accentuazioni, diverse. Per me l’IA è prima di tutto il far fare alle macchine lo sforzo di capire noi anziché viceversa. Comunque, al di là delle visioni personali, la maniera classica di definirla è quella ingegneristica: sistemi basati su elaboratore che svolgano funzioni che quando svolte da esseri umani sono ritenute denotare intelligenza.

Come si vede una definizione che rimanda a un’altra definizione – quella di intelligenza – non univoca. Vi sono tanti aspetti diversi dell’intelligenza, dalla percezione, alla conoscenza, al ragionamento, alla comunicazione, fino all’intelligenza emotiva, a quella sociale, alla creatività e altro ancora. Alla base dell’obiettivo di realizzazione di queste funzionalità vi è il riconoscimento che l’essere umano e il computer sono entrambi sistemi che elaborano l’informazione. In sostanza il campo ha sempre dato spazio a vari settori di ricerca, spesso anche molto diversi dal punto di vista metodologico, mantenendo un cappello comune.

All’atto pratico è stato molto marginale proprio quello di cui sulla stampa popolare si parla spesso: il progetto di costruzione di un’intelligenza complessiva, integrata di tutti i suoi molteplici aspetti nello stesso sistema. Vi è stata invece, per vari specifici settori, l’ambizione di poter contribuire anche alla comprensione di processi cognitivi umani, in dialogo stretto con le scienze cognitive appunto. Questo lo si è visto molto soprattutto per quanto riguarda gli aspetti “centrali” della cognizione, ad esempio la struttura sottostante alla nostra vita cognitiva – e alla base dei nostri piani e delle nostre azioni – fatta di credenze, desideri e intenzioni, o per quanto riguarda la comprensione del linguaggio umano. In questo particolare momento della storia dell’IA, la sensibilità per la psicologia cognitiva è de-enfatizzata, ma personalmente ritengo resti importantissima per il campo.

Come si è evoluto il concetto di intelligenza artificiale?

Per capire l’evoluzione metodologica dell’intelligenza artificiale bisogna tenere conto di vari aspetti. Il primo è che fin dall’inizio, dalla conferenza di Dartmouth del 1957, erano presenti due modi di vedere il campo. Il primo viene dalla tradizione logica,  e si basa sulla costruzione di modelli, sostanzialmente conoscenza da cui derivare ulteriore conoscenza attraverso processi logici. Il secondo è invece legato alla tradizione cibernetica, e propone di dare valore ai dati e aggiustare il peso delle loro correlazioni, in questo modo possibilmente facendo apparire nuove correlazioni, con procedure sostanzialmente numeriche. In generale si può dire che il secondo approccio è sempre stato importante per i processi percettivi (ad esempio il riconoscimento di immagini, il riconoscimento del parlato), il primo per la cognizione centrale. Nel corso del tempo vi sono stati spostamenti di enfasi da un approccio all’altro.

Un altro fatto importante è che, soprattutto grazie alla rete (World Wide Web) e alla diffusione di computer in varie forme (ad esempio smartphone), sono diventati disponibili enormi quantità di dati. Si pensi ai giganteschi archivi di immagini. Oppure al caso della comprensione del linguaggio: si può dire che copie di quasi tutto quello che è stato scritto dall’uomo, da quando è stata inventata la scrittura, sono ora disponibili in forma digitale e possono essere usate da algoritmi in grado di “apprendere” come gli umani si esprimono scrivendo. Altro fattore essenziale in combinazione con questo è il progresso tecnologico, hardware e software di base (come per il calcolo parallelo), che consente ad algoritmi di apprendimento già conosciuti da tempo di operare utilmente.

In tempi più recenti è cambiata la definizione?

Molto spesso si assiste a una confusione tra intelligenza artificiale e apprendimento da grandi quantità di dati. Prima di tutto è opportuno chiarire che quando si dice apprendimento, non si intende nulla di simile all’apprendimento umano, ma processi sostanzialmente a base statistica. Un bambino non impara a parlare sulla base di enormi quantità di frasi, anzi. E in ogni caso questo apprendimento delle macchine è, come dicevo prima, un approccio non generale, ancorché di grande successo in molti settori applicativi, anche nuovi. In certi settori, ad esempio specialità di riconoscimento visivo, i sistemi artificiali basati su apprendimento sono anche migliori della visione umana, in altri campi che richiedono concorrenza di vari componenti, o per i quali ci sono pochi dati, approcci di questo genere non sembrano essere quelli che portano a una soluzione.

Un effetto della propensione a considerare in IA principalmente l’approccio metodologico basato su apprendimento, che garantisce robustezza (ovvero la caratteristica di fornire qualche risultato, anche se non ottimale, in ogni circostanza) è che si privilegiano applicazioni, e anche competizioni scientifiche, a breve termine. Queste non necessariamente ci fanno avvicinare di più a obiettivi più ambiziosi.

Un altro aspetto critico importante è che i sistemi di apprendimento di tipo neurale (che è l’approccio più diffuso), di un tipo o dell’altro, sono una sorta di scatole nere. Arrivano a una soluzione ma non c’è una spiegazione del come. Naturalmente questo non solo è piuttosto problematico per un campo scientifico, ma è anche inaccettabile per molte situazioni applicative. È molto diverso da quanto accadeva con sistemi basati su conoscenza: ad esempio i sistemi esperti (di qualche decennio fa) avevano come loro caratteristica quella di spiegare le linee di ragionamento che avevano portato alla soluzione: una diagnosi richiede anche una spiegazione. È un po’ paradossale che ora si costruiscano sistemi che arrivano a soluzione in modo opaco, e che ci debba poi essere una specializzazione della ricerca che cerca di rendere spiegabile a posteriori quello che hanno fatto.

Ad ogni buon conto, penso che in futuro diventerà fondamentale la capacità di integrare ragionamento basato su conoscenza e quello improntato ad apprendimento da dati.

Quali sono i compiti che attualmente l’intelligenza artificiale svolge al pari o meglio dell’essere umano?

Molti compiti settoriali. Compiti di riconoscimento percettivo, ma anche di riconoscimento e scoperta di correlazioni in tanti ambiti, tra questi quelli sociali. Predizione di eventi futuri, sulla base del passato. Tanti compiti legati alla verifica di condizioni di sicurezza in apparecchiature complesse, si pensi al funzionamento della rete ferroviaria o alla complessità degli aerei. Sono tutti compiti in cui i sistemi artificiali sono indispensabili, fanno meglio dell’uomo. Poi ce ne sono tantissimi altri specialistici, e tanti settori applicativi nuovi.

Ma qui approfitto per citare i giochi che sono considerati arene per l’espressione di intelligenza. Anche Go, il gioco orientale, ha visto di recente un programma dominare, non sembrava facile. Ma restiamo su un gioco molto più conosciuto da noi: gli scacchi. Dopo la sconfitta nel 1997con Deep Blue, il programma dell’IBM basato su hardware speciale, Kasparov, probabilmente il più grande campione di tutti i tempi, si era lamentato di trucchi; poco tempo dopo giocando con il programma campione del mondo Deep Junior, basato su un semplice PC, si rese conto che il dominio umano era finito e giocò per non perdere. Quando Deep Junior giocò da noi in FBK contro il gran maestro Godena, i commentatori scacchistici e il gran maestro, sconfitto, dissero unanimemente che la cosa che li aveva colpiti di più era stata la creatività del programma. Ora comunque le sfide tra umani continuano e gli scacchi sono più popolari che mai, ma si sa che i programmi sono più forti.

Quali sono i settori in cui l’intelligenza artificiale non riesce a stare al passo dell’intelligenza naturale?

La cosa forse più difficile è l’integrazione dei vari aspetti dell’intelligenza in un singolo sistema. Siamo molto lontani da questo. Ci sono poi  aspetti di fondo che vengono dibattuti  tra IA, scienze cognitive e filosofia, come la coscienza, il provare emozioni, il rapporto mente-corpo. Questi aspetti distinguono in modo chiaro, al momento, l’intelligenza naturale da quella artificiale.

Quali sono gli ambiti della nostra vita già sensibilmente influenzati dall’intelligenza artificiale, di cui magari non siamo consapevoli?

Nel tempo ci sono state realizzazioni di intelligenza artificiale  che sono venute a far parte di molti prodotti e processi. Nel momento in cui venivano adottate, perdevano l’attribuzione della loro origine. In sostanza, per tornare alle definizioni, era come se il “mondo reale” intendesse che  l’intelligenza artificiale è tutto quello che i computer non sono ancora in grado di fare. Ma appunto tecniche di origine IA erano già inserite in prodotti e processi dei tipi più svariati. Ora sta succedendo l’opposto: viene enfatizzata la presenza di intelligenza artificiale per tanti prodotti, talora anche senza che sia giusto parlare di IA.

Comunque, per rispondere direttamente alla domanda: ad esempio abbiamo IA  nel televisore e negli elettrodomestici di casa, naturalmente nel telefonino, e nel programma che ci guida a raggiungere la nostra destinazione in auto. Per non dire di tutta l’IA che abbiamo nella gestione del nostro computer. Solo per citare un aspetto visibile: il sistema a finestre, ormai parte della nostra vita su qualunque pc è nato in uno dei massimi centri dell’IA, allo Xerox Palo Alto Research Center.

In quali campi le persone si accorgeranno nel prossimo futuro di un sensibile miglioramento nella qualità della loro vita grazie all’applicazione dell’intelligenza artificiale?

Mi limito a citare due casi evidenti che salveranno moltissime vite. Prima di tutto IA in medicina. Per esempio vi sono già  tecnologie disponibili per il riconoscimento automatico di possibili indicatori di patologie in radiografie o in dermatologia; ma ci sono tantissimi altri ambiti di applicazione in medicina, sia per aiutare il medico nel suo lavoro diagnostico, che nell’interventistica (si pensi all’enorme settore della robotica di precisione), che nella facilitazione del lavoro collaborativo di equipe mediche, che ancora  nell’aiuto alla ricerca di nuovi farmaci. Un capitolo aggiuntivo, che si è solo intravvisto finora e che crescerà di importanza, è quello della medicina preventiva. Questo vorrà dire soprattutto lo sviluppo di interfacce intelligenti con le persone e di comunicazione volta alla persuasione dell’individuo ad assumere comportamenti adeguati.

Un secondo caso evidente è quello della guida automatica, o almeno semiautomatica, delle automobili. Penso sia uno scandalo della nostra società il numero di morti che tolleriamo di avere sulle strade. Sistemi automatici di guida saranno prima di tutto molto più sicuri, salveranno moltissime vite. Il problema maggiore sarà nella fase intermedia della loro adozione, quando insieme a macchine a guida autonoma ci sarà ancora un gran numero di irresponsabili e imprevedibili umani alla guida.

Ci sono lati oscuri dell’Intelligenza artificiale?

Certamente. In certi casi sono legati alla metodologia, come accennavo prima. Ora, un po’ curiosamente, a causa di loro limiti intrinseci, vi è la necessità di rendere spiegabili i comportamenti di sistemi di IA basati su apprendimento opaco. Ma oltre a questo aspetto particolare, legato alla metodologia che ora va per la maggiore, ci sono vari aspetti etici generali che è importante tenere presente.

Vi sono aspetti etici, per l’IA in modo analogo a come ve ne sono in altri campi; si pensi alla biologia, o anche alla fisica. Questi riguardano l’uso applicativo dei risultati scientifici e talora la stessa ricerca. Nel caso dell’intelligenza artificiale si parla molto del problema della privacy, l’IA può essere usata ad esempio per controllare le persone, o anche, per predirne i comportamenti. Un altro aspetto delicato è quello del pregiudizio: sistemi che apprendono dal comportamento umano possono assumerne gli stessi pregiudizi, cosa negativa, da evitare. Oppure l’IA può essere usata per costruire armi che possono uccidere senza controllo umano.

Inoltre si dibatte di temi sociali, quali la divisione tra quelli che possono avvalersi di IA e quelli che ne sono esclusi, l’enorme profitto degli attori industriali, la possibile perdita di posti di lavoro dovuta all’introduzione di sistemi intelligenti che possano sostituire il lavoro umano. Sono tutti temi importanti che meritano di essere dibattuti. Vi è un movimento di “umanesimo digitale”, che si occupa di temi di questo tipo per l’informatica e in particolare per l’intelligenza artificiale. L’obiettivo è sviluppare, prima di tutto tra gli addetti, la coscienza che il campo deve servire allo sviluppo umano, al progresso individuale e sociale.

Ma c’è un aspetto che è specifico, unico dell’intelligenza artificiale: i sistemi di intelligenza artificiale potranno essi stessi prendere decisioni su basi etiche. Distinguere il bene dal male. Questo è un nuovo settore di ricerca destinato a crescere nel tempo, che si interseca con la filosofia e con le scienze cognitive e sociali. La prospettiva di tipo costruttivistico dell’intelligenza artificiale ci consente, direi ci obbliga, a ragionare su noi stessi e sulla società.

Chi tiene in mano le chiavi? Quali sono i meccanismi di controllo?

In generale i colossi dell’informatica sono  sfuggiti di mano alla società. Non si è percepito il grande potere che potevano realizzare, i profitti sproporzionati e elusivi, e alla fine anche le possibilità di sviluppo autonomo ulteriore delle tecnologie, destinato a rafforzarli sempre di più. L’IA si inserisce in questo quadro, e ora l’accumularsi dei dati sugli individui in mano ad aziende comincia a essere riconosciuto come problematico. A questo si aggiungono problemi specifici relativi alla salvaguardia dei diritti del singolo e dei valori della nostra società.

Oggi c’è, soprattutto in Europa, una consapevolezza dell’importanza di questi aspetti, e ad esempio la Commissione Europea ha espresso delle linee guida ed è intesa porre dei controlli di fondo sull’adozione indiscriminata di tecnologia di IA, cercando di garantire che lo sviluppo sia per il bene, che non tocchi i diritti degli individui e della democrazia. Negli Stati Uniti gli accenti sono diversi, e in Cina attenzioni di questo genere sono quanto meno molto lontane dall’impostazione generale.

Naturalmente è bene rimarcare che questo non ha a che vedere con  limitazioni alla ricerca di base, per la quale, almeno a parole, sono tutti concordi nel raccomandare che servono investimenti maggiori.

I cittadini di cosa devono essere consapevoli?

L’IA può essere usata in modo pericoloso per la democrazia, come dicevo prima. Ma in Europa c’è un’attenzione forte per questi aspetti, siamo più garantiti che in altri posti. Ma io penso che bisognerebbe non solo introdurre controlli che l’uso non trascenda gli interessi della democrazia, ma spingere per un ruolo positivo, richiedere all’IA di contribuire allo sviluppo della democrazia. Ad esempio: è essenziale per la democrazia l’informazione corretta e accessibile. Si potrebbe sviluppare ricerca importante (ad esempio finanziarla con una frazione degli utili delle compagnie) volta a contrastare le fake news e la persuasione fraudolenta delle persone. È un tema di attuale enorme importanza, come sappiamo, ed è allo stesso tempo un tema intellettualmente delicato. Tecnologicamente è una sfida in assoluto difficilissima, ma si possono avere risultati che, anche se preliminari, potranno aiutarci dove finora siamo stati poco preparati lasciando andare le cose come venivano.

Questo è un esempio per indicare che i cittadini dovrebbero richiedere più IA, indirizzata a sfruttare il suo potenziale per il bene comune.

Da bambino quali erano i suoi sogni verso il futuro? Quando nella sua vita ha deciso che si sarebbe occupato di ricerca?

Da bambino i miei giochi preferiti erano la matematica, il pallone e il monopattino/ bicicletta. Non sono riuscito a combinarli. Da ragazzo non pensavo che mi sarei occupato di ricerca prima di incontrare l’intelligenza artificiale.  Ne avevo sentito parlare la prima volta durante l’elaborazione della tesi di laurea (in linguistica matematica). Quando poi feci la tesi di specializzazione in informatica a Pisa (allora non esisteva ancora il dottorato) ebbi l’opportunità di sviluppare un progetto di ricerca in intelligenza artificiale: fu il primo analizzatore automatico di frasi in Italia.  Immediatamente, grazie a un gruppo splendido di ricercatori di Pisa, che mi avviò alla ricerca, mi sostenne e mi introdusse a un ambiente internazionale, mi trovai in mezzo al mondo della ricerca. Poi fui io a scegliere per l’incertezza della ricerca pubblica sui temi che prediligevo, rispetto alle sicurezze che mi venivano offerte dalla ricerca industriale in aziende come l’Olivetti.

Perché ha scelto il settore dell’intelligenza artificiale?

È un meraviglioso mondo che integra su una base matematica e ingegneristica le scienze umane: studi sulla mente, linguistica, filosofia. L’idea era del dialogo stretto con queste, e magari di contribuire alla nostra conoscenza dell’uomo. Un mondo in cui c’è spazio per idee innovative, in cui la tecnica da sola non basta. È anche un campo in cui puoi andare avanti senza essere nella corrente principale, c’è spazio per l’originalità. D’altra parte, la mia generazione, e io di sicuro, abbiamo avuto l’ambizione di migliorare il mondo. Per me lo sviluppo della ricerca, e la conseguente adozione di tecnologie intelligenti, quali interfacce per la persona,  sarebbe servito a dare le stesse possibilità di conoscenza, di apprendimento e di comunicazione a tutti e non solo ai privilegiati (ad esempio quelli che hanno un servizio di segreteria o degli assistenti) che possono averle comunque.

A un giovane che guarda con interesse al mondo della ricerca cosa consiglierebbe?

La ricerca in intelligenza artificiale è affascinante, da vari punti di visita. C’è un mondo da scoprire, da migliorare e da costruire. Ma soprattutto l’intelligenza artificiale, se presa con una visione ampia, non solo tecnica, ci costringe a ragionare sugli esseri umani. Con queste  prospettive  viene anche la possibilità di avere un ruolo da protagonista nelle applicazioni concrete del futuro, non solo nella ricerca di base.

Provo a elencare qualche tema che mi sento di suggerire per il futuro.

Prima di tutto, punterei sul campo vasto della cooperazione tra esseri umani e sistemi, nelle situazioni più diverse. Non una intelligenza artificiale che sostituisca l’uomo ma che sappia inserirsi nei vari processi sociali, comprendendo persone e organizzazioni, e aiuti le persone accrescendo le loro capacità.

Un secondo tema è la specifica partnership per la creatività, in vari campi, dall’arte ad aspetti particolari della comunicazione umana – faccio un esempio specifico che mi sta a cuore: l’umorismo, senza il quale non sono sicuro che la nostra specie sopravviverebbe…

Un altro ancora è la comprensione del grande tema della persuasione, che poi dal punto di vista pratico si declina sia nella difesa da quella indesiderabile che nell’influenzamento degli individui per migliorarsi, per il bene collettivo. Collegato a questo è il tema, difficilissimo e delicato, del rapporto con la verità.

Infine i temi di etica computazionale: un aspetto nuovo che diventerà molto importante se vorremo che le macchine del futuro siano dei buoni compagni nella nostra società, e, perché no?, che possano aiutare anche noi umani a comportarci con dignità e rispetto per gli altri.