Future Built on Knowledge

L’etica delle macchine

March 13, 2018

La capacità di creare macchine intelligenti fa scaturire numerose questioni etiche per gli esseri umani, alcune profondissime, altre più “pratiche”. Ecco di cosa abbiamo discusso in occasione del festival "Co.Scienza" lo scorso 8 marzo a Trento

Viviamo in un’era in cui siamo in grado di costruire macchine che imitano e aumentano le nostre capacità cognitive in modo sempre più preciso. Un’era in cui discussioni che portiamo avanti da millenni arrivano a un punto d’incontro con la realtà e ci mettono di fronte alla responsabilità di affrontarle in modo sistematico.

Cos’è la coscienza? Cos’è l’individualità? Cosa ci rende umani e ci differenzia dalle altre creature esistenti nell’Universo? Domande che ci mettono in discussione sotto molteplici punti di vista. Accanto a queste domande però, ci sono diversi temi pratici che scaturiscono dalla possibilità di creare macchine in grado di parlare, comprenderci, interagire con noi e intraprendere azioni.

Per la prima volta ci troviamo di fronte alla responsabilità di chi crea qualcosa che non è totalmente sotto il proprio controllo, non perché dotato di una propria volontà, ma in quanto programmato per portare a termine attività di vario tipo, senza la nostra supervisione e senza istruzioni precise.

Tutto questo va oltre l’automazione come la abbiamo immaginata e percepita finora. Non si tratta più di alimentare la forza motrice di una macchina con l’elettricità o di programmare nei dettagli un “If This Than That” (logica applicata al linguaggio di programmazione), si tratta di programmare una macchina perché sia in grado di agire/interagire all’interno di un ambiente senza istruzioni precise. Questo comporta tutta una serie di conseguenze sulle quali è doveroso interrogarsi in questa fase di esplosione dell’intelligenza artificiale, in modo da poterne gestire le criticità e da poterne cogliere le opportunità al meglio.

In particolare, possiamo distinguere i seguenti ambiti che fanno problema dal punto di vista etico quando ci approcciamo a questo tema:

1. Utilizzo immorale

Il primo problema sorge, come per ogni tecnologia, riguardo all’utilizzo che ne facciamo. Non si tratta di temere che le macchine prendano il sopravvento e inizino ad agire deliberatamente contro l’essere umano: il comportamento competitivo è tipico della nostra specie ma non delle macchine, prive di fatto di volontà. Si tratta invece di definire il modo in cui noi esseri umani decidiamo di farne uso. È nel momento in cui noi agiamo che nasce il valore morale di qualunque cosa.

Nel caso dell’intelligenza artificiale abbiamo di fronte uno strumento molto potente e le conseguenze di un cattivo utilizzo possono essere molto pesanti. Pensiamo alla capacità di falsificare video facendo parlare in modo convincente personaggi famosi con la propria voce, ma con parole non per forza dette da loro. Da un alto potremmo girare film con attori scomparsi, dall’altro potremmo fabbricare bufale di portata globale. E anche nel caso dell’utilizzo di questo strumento per fare un film, chi mi autorizzerebbe all’utilizzo dell’immagine dell’attore scomparso? Chi mi potrebbe garantire che vorrebbe essere parte di quel film?

Il potere che scaturisce da un’intelligenza artificiale ben costruita è tale che Elon Musk (l’imprenditore sudafricano fondatore di SpaceX) ha paragonato questa tecnologia alle armi nucleari, sostenendo che debba essere il più possibile open source e a disposizione di tutti, per non concentrare troppo potere nelle mani di pochi. Per questo è tra i creatori di OpenAI, un’organizzazione no profit che mira a mettere a disposizione di tutti formazione, enormi quantità di dati di test e capacità computazionale necessari per creare e allenare un algoritmo di intelligenza artificiale.

2. Intelligenza artificiale come fonte di divisione sociale

Proprio perché si tratta di uno strumento potente, questa tecnologia è in grado di creare grandi divisioni sociali. Non bastano infatti iniziative come OpenAI per evitare una concentrazione nelle mani di pochi, siano essi i grandi giganti tecnologici come Amazon, Netflix, Google, IBM, Baidu, Apple, o siano essi paesi come la Cina o gli Emirati Arabi, che stanno facendo grandissimi investimenti in questo campo.

Lo ha fatto notare nel 2017 anche Margaret Chan, allora direttore generale dell’Organizzazione mondiale della sanità, affermando: “Enthusiasm for smart machines reflect the perspective of well-resourced companies and wealthy countries. We need a wider perspective.” (“L’entusiasmo per le macchine intelligenti riflette le prospettive delle aziende dei paesi con più risorse. Serve una prospettiva più ampia”).

Pensiamo alla divisione creata dalla sua nascita dalla tecnologia della scrittura: avere accesso o meno a questo strumento è stato (ed è ancora) motivo di grandi discriminazioni. È facile capire il punto sollevato dalla Chan sotto questa prospettiva.

3. Tendenza a “umanizzare” le macchine

Fin dalla nascita del primo chatbot, Eliza, creato all’MIT dal professor Joseph Weizenbaum nel 1965, abbiamo avuto problemi a frenare la nostra empatia e le nostre emozioni nei confronti di qualcosa in grado di parlare con noi. Dopo tutto, per millenni, siamo stati in grado di farlo solo con altri esseri umani e diventa facile confondersi.

Oggi siamo contornati (e lo saremo sempre di più), da macchine che interagiscono con noi con comandi vocali, il web è pieno di video esilaranti di bambini che crescono con Amazon Alexa, Siri, Cortana, e imparano il linguaggio necessario a farsi capire con “Hey Alexa, Play music! Hey Siri, read a story to me! Hey Cortana, buy me candies!”.

Di fronte a questa situazione potrebbe diventare necessario stabilire qualche regola: se mi connetto a un servizio clienti online, ho diritto di sapere se sto parlando con un umano o con un software? Probabilmente sì. E se in un futuro mi trovassi di fronte un robot umanoide in grado di ingannarmi anche nell’aspetto, dovrei pretendere di essere avvisato in qualche modo della sua identità?

4. Insegnare ai software i nostri pregiudizi

La tecnologia aumenta le nostre capacità. La tecnologia aumenta i nostri pregi ma anche i nostri difetti. Se forniamo a un software dati viziati da pregiudizi impliciti il risultato non può che essere l’aumento dei pregiudizi stessi. Alcuni esempi?

·         Il chatbot di Microsoft rilasciato su Twitter nel 2016 che nel giro di 24 ore ha iniziato a scrivere frasi naziste e razziste: in qualche modo aveva dedotto che fosse il modo per diventare popolare sul famoso social network.

·         Se cerchiamo CEO (amministratore delegato) su Google per immagini, quante donne e quante persone di colore vengono mostrate?

·         Il test fatto negli Stati Uniti per l’utilizzo dell’intelligenza artificiale per stimare la probabilità di tornare a commettere un crimine mostra che l’algoritmo ritiene che nel caso delle persone di colore la probabilità sia del 77%, mentre per gli altri sia del 45%.

Quello che è certo è che, se questi strumenti sono ottimi per l’analisi di grandi quantità di dati, al momento, devono essere supervisionati da un umano in grado di accorgersi e di eliminare i pregiudizi che portano con sé.

Responsabilità

Se un robot domestico fa qualche danno in casa, se cucina una ricetta letale perché sbaglia ingrediente o calpesta il cane del vicino quando porta fuori la spazzatura, di chi sono le responsabilità? Il Parlamento Europeo si è già premurato di creare una nuova personalità giuridica proprio per gestire diritti e responsabilità di software e macchine: si chiama Electronic Personhood. Il quadro normativo non è ancora pronto, ma certamente si tratta del primo passo verso una maggior chiarezza. Nel frattempo, qualcuno dice che dovremmo applicare il diritto romano: nell’antichità se uno schiavo uccideva un uomo, il proprietario dello schiavo era ritenuto responsabile, così, se un robot (parola che nella sua origine significa lavoro, schiavo) fa un danno a qualcuno o qualcosa, dovrebbe essere ritenuto responsabile il proprietario. Ma se il proprietario non sa nulla di programmazione e non è in grado di comprendere le logiche del software?

In UK ad esempio esiste già il diritto del consumatore di richiedere informazioni sul software dei prodotti che acquista. Se in un domani compraste un’auto a guida autonoma non vorreste sapere come è stata programmata?
Uno strumento utile potrebbe essere quello di creare delle certificazioni di qualità sui software e delle banche centrali dedicate alla conservazione del codice, per renderlo disponibile e consultabile in modo trasparente.
Inoltre, se si tratta invece di un problema tecnico dell’hardware? Quali e quanti sono i soggetti coinvolti nella realizzazione del prodotto finito? Quali quelli responsabili?

Programmare il buon senso?

Quando affrontiamo il problema delle auto a guida autonoma e di come si dovrebbero “comportare” nelle nostre strade, tendiamo spesso a porci la questione morale: quanto vale una vita? Come scelgo, in caso di emergenza, chi salvare e, di conseguenza, come manovrare l’auto? L’esperimento online del MIT di Boston “The Moral Machine” è incentrato proprio su questo: viene mostrata una serie di scenari e si chiede agli utenti di indicare come dovrebbe comportarsi l’auto in quel contesto. L’esperimento però non dà una risposta al problema: in linea generale siamo tutti d’accordo sulla logica da seguire in questi casi, ma se personalizziamo il contesto e siamo noi o i nostri cari i protagonisti dello scenario cambiano tutte le regole.

Quello che evidenzia The Moral Machine è che non dobbiamo mettere le auto autonome nella condizione di dover gestire questo tipo di scenari. In Germania, ad esempio, sono già state stilate alcune linee guida per lo sviluppo di regole per questi veicoli e il concetto di fondo è che le auto autonome non devono essere messe in condizione di affrontare scenari del genere. Se questi veicoli avessero corsie dedicate, fossero in contatto tra loro costantemente tramite una rete di comunicazione tra robot (una “Robochain” come la chiamano al MIT), allora questi  dilemmi non si presenterebbero.

Il problema di base sorge dal fatto che gran parte del nostro agire (morale) si fonda sul buon senso, sulla nostra capacità di usare regole e leggi come linee guida e di applicarle nel modo migliore in base al contesto. Così, se sappiamo che la linea continua non va superata quando guidiamo, sappiamo anche che ci sono dei casi in cui superarla di 10 centimetri non solo non crea alcun problema, ma può anche essere un modo per evitare un incidente o per non rimanere bloccati nel traffico perché c’è un’auto parcheggiata in doppia fila. Un software è logica razionale e, a oggi, non siamo ancora in grado di programmarlo per comprendere queste differenze. Alcuni ricercatori cercano di insegnare agli algoritmi il buon senso così come lo insegniamo ai bambini: con l’esempio e l’imitazione. Ci riusciranno? Non è facile dirlo, ma certamente possiamo dire che allo stato attuale non dovremmo affidare solo alla tecnologia attività che richiedono buon senso e capacità decisionali.


Autore/i