For a Human-Centered AI

L’Intelligenza Artificiale è quello che ne facciamo

19 Giugno 2018

Abbiamo incontrato il prof. Ronald J. Brachman in FBK durante la conferenza "Il piacere della ricerca nell'intelligenza artificiale". Ecco la sua prospettiva da ricercatore di lunga data

Iniziamo dal principio: una definizione di intelligenza artificiale
Ci sono veramente tante definizioni di intelligenza artificiale e secondo me forse la cosa più importante dell’intelligenza è che non è qualcosa di unico e semplice, è qualcosa di sfaccettato e al momento penso che sia oltre qualsiasi facile definizione.
C’è gente che si concentra su comportamenti e abilità specifici che sembrano possano essere eseguiti solo da persone o animali intelligenti. Essi sono, però, molto ristretti e specifici. Dal’altra parte poi ci sono capacità più generali. A volte la gente definisce questo intelligenza artificiale generale.
È il caso, per esempio, di un sistema di intelligenza artificiale che può essere collocato in qualsiasi contesto anche sconosciuto e a cui si può far fare cose ragionevoli, che dimostrano buonsenso, che mostrano una certa capacità di ragionare e di predire il futuro o di agire in modo pressochè razionale. A me piace pensare ad un’intelligenza artificiale più focalizzata su queste ultime, sulle nozioni generali di intelligenza dove non si cerca di concentrarti su un dominio molto ristretto o su un insieme di obiettivi molto specifici, ma non tutti la vedono così.
Mi piace pensare l’intelligenza come qualcosa di più generale, come la capacità di supportare un’entità intelligente in una nuova situazione e di fare sempre qualcosa di ragionevole ed efficace, di reagire in realtà quando vede e sente cose nuove. A volte la gente si domanda che cosa debba sapere un agente per comportarsi in modo intelligente. Sono convinto che si tratti di una combinazione di cose in cui certe capacità sono incorporate, tipo la capacità di immaginare il futuro nella propria testa.
Senso pratico su come funziona il mondo e se dovrà interagire con gli esseri umani dalle idee di base del buon senso sul fatto che gli umani hanno menti, intenzioni e convinzioni e interagiscono nel linguaggio, cioè c’è una serie di cose basiche che tutti gli umani imparano intorno ai due-tre anni di età. Tutte cose che è molto importante che una macchina sappia per comportarsi in modo intelligente. Poi, oltre alle cose che sa, la capacità di apprendere, la capacità di ragionare, la capacità di proiettare il futuro, la capacità di abbinare ciò che percepisce attraverso qualunque meccanismo percettivo abbia avuto in questa base di conoscenza. Dunque, tutte queste cose sono molto importanti quindi non è solo questione di sapere le cose, o le cose che basta sapere, è un insieme di ciò che si sa, come si apprende e le abilità che usi per trattare con quelle conoscenze.

Qual è la differenza tra fare attività di ricerca all’interno del mondo accademico o all’interno delle aziende?
Ho avuto la fortuna nella mia carriera di lavorare in diverse aziende, incluse alcune grandi aziende multinazionali come AT&T e Yahoo. Ho anche lavorato per un’agenzia di finanziamento molto importante del governo degli Stati Uniti, il DARPA, che offre denaro a ricercatori in team di grandi progetti per fare ricerche molto importanti, molto avanzate. Di recente ho anche avuto l’opportunità di collaborare all’università. Il modo in cui si approccia la ricerca nei due contesti è un po ‘diverso anche se noto con piacere che negli ultimi tempi c’è stata una certa convergenza.
In genere, in passato, i docenti universitari e gli studenti erano limitati a set di dati artificiali o piccoli problemi che potevano andar bene una classe, che erano strettamente definiti dalla borsa di ricerca che ricevevano dal governo mentre nelle aziende, specialmente in una grande azienda internazionale che ha molte linee di prodotti e servizi su cui fare ricerca e spesso, in tempi moderni, moderatamente enormi quantità di dati dal mondo reale che mostrano quali sono i veri problemi. Dunque, a lungo c’è stata una divergenza tra la ricerca universitaria che era più accademica, non radicata profondamente nel mondo reale
e le aziende che avevano i dati, i prodotti e i clienti in cui quasi tutto ciò che facevano era incentrato su risultati pratici. In tempi più recenti abbiamo visto molta collaborazione, abbiamo visto sovvenzioni sotto forma di contratti da parte di grandi aziende nelle università, abbiamo visto i docenti universitari fare periodi di sabbatico presso aziende. Abbiamo visto colleghi, anche nella mia stessa università, lavorare a metà tempo all’università e a metà tempo in aziende. Sono convinto che questo sia di particolare importanza per l’intelligenza artificiale dove la teoria è importante, fare le cose nel astratto, alla lavagna, è importante, ma il mondo reale, quello dove per così dire “la gomma tocca la strada”, è davvero cruciale per il successo futuro dell’IA. Vedo, dunque, convergenza, anche se non totale, un avvicinamento in molti settori della ricerca industriale su larga scala e della ricerca universitaria.

Qual è la sua opinione sul lato oscuro dell’IA?
Una delle speranze dell’IA, oltre alle solite cose tipo la costruzione di robot, le cose che la gente di solito immagina o che vede nei film di fantascienza, o assistenza alle persone in professioni come nel settore finanziario, dove è comune vedere applicazioni di IA è che i ricercatori continuino a pensare e ad approfondire le loro considerazioni etiche sulla tecnologia e sulla capacità di aiutare le persone che vivono in paesi sottosviluppati o che soffrono di discriminazione o semplicemente di mancanza di risorse. Ora l’intelligenza artificiale non è una panacea, non risolverà i problemi del mondo, ma grazie alla sua capacità di elaborare dati e utilizzare la conoscenza derivata dal buon senso ed esplorare concetti molto ampi, potrebbe aiutare a comprendere e analizzare i problemi in aree molto povere, aiutare a capire come ottenere risorse da luoghi in cui esse abbondano e trasferirle in questi posti dove scarseggiano in modo efficiente ed economico. A lungo termine, questo potrebbe contribuire ad equilibrare alcune delle sfide di welfare sociale che vediamo in molti posti, ad affrontare la povertà. Penso che la cosa più importante sia che i ricercatori in ambito dell’ IA comincino a pensare in questi termini e collaborino con chi si occupa di scienze sociali e con chi s’intende di economia e welfare e indirizzino davvero la loro attenzione su questi temi.

Qual è il futuro dell’IA?
Da tempo si teme che le macchine possano ribellarsi e conquistare il mondo o attaccare gli umani autonomamente. Credo, però, che la tecnologia e la scienza siano troppo lontane dal livello di autonomia, dall’autoapprendimento e dalla replicazione a ciò necessari. Non è che non dovremmo preoccuparci di questo, ma non è arrivato ancora il momento. Ciò che mi preoccupa enormemente è che, come succede con molti tipi di tecnologia moderna, ci sono i malintenzionati che cercano di imbrogliare o danneggiare altre persone o di trovare modi per rubare o farsi il gruzzolo senza fatica e, come in qualsiasi tecnologia nelle mani di persone intelligenti con cattive intenzioni, penso che l’intelligenza artificiale possa essere usata per scopi veramente negativi. E’ difficile dire dove sono le tecnologie di base per alcuni dei lati oscuri di cui sentiamo parlare, come quello del web, persone che comprano e vendono merci di contrabbando o cose che non dovrebbero essere vendute. Ci sono problemi di persuasione. Si parla molto in questi giorni di fake news e account e del fatto che l’intelligenza artificiale potrebbe essere usata per aprire un account su Twitter o Facebook che sembri gestito da una persona reale (non c’è bisogno di un’intelligenza artificiale molto sofisticata). Ad esempio con Twitter si comunica con un numero molto piccolo di parole o caratteri: è più facile imitare un essere umano e non c’è dubbio che ci siano già persone che approfittano di chiamalo IA, apprendimento automatico o tecnologia informatica avanzata per ingannare le persone.
Quello che dobbiamo fare sul lato positivo, sul lato della luce, è davvero guardare come possiamo usare meglio l’intelligenza artificiale, come possiamo rilevare gli abusi, come iniziare a installare nei sistemi di IA meccanismi che possano avere sufficienti capacità di riflessione in modo che possano impedire a qualcuno di usarli per scopi malevoli. Siamo ancora molto lontani dal riuscirci, ma penso che sia qualcosa a cui è importante pensare. Non credo a un cataclisma nell’immediato futuro, dove i robot con IA conquistano il mondo, ma è molto chiaro che bisogna prevenire i malintenzionati fin d’ora.


Autore/i