For a Human-Centered AI

Cosa non è l’Intelligenza Artificiale e perché va urgentemente normata

3 Novembre 2023

Il punto di vista di due esperti d’eccezione sulle nuove tecnologie basate sull’Intelligenza Artificiale e su come possono essere usate in modo efficace e consapevole.

L’Intelligenza Artificiale ormai è ovunque e ha pervaso praticamente qualsiasi campo del sapere, non ultimo quello della comunicazione. Per questo motivo, la Federazione Relazione Pubbliche Italiana (FERPI) ha pensato di organizzare un convegno sul tema, tenutosi il 27 ottobre 2023 presso il Rettorato dell’Università di Trento, invitando come relatori Paolo Traverso, responsabile Marketing Strategico e Business Development della Fondazione Bruno Kessler e Carlo Casonato, Professore di Diritto Costituzionale Comparato e titolare della Cattedra Jean Monnet di Diritto dell’Intelligenza Artificiale (T4F).

I comunicatori professionisti presenti hanno ammesso di fare già uso dell’Intelligenza Artificiale per il loro lavoro, in particolare di ChatGPT, per generare testi o immagini e accorciare i tempi del lavoro quotidiano, soprattutto in momenti lavorativi particolarmente pressanti. Ma come possiamo accertarci di utilizzare questi nuovi strumenti in modo corretto, sia dal punto di vista professionale che deontologico? E come va gestito il copyright di un testo o di un’immagine generati da un algoritmo, e non da un essere umano?

Da quest’ultimo presupposto è partito l’intervento di Traverso, che ha cercato di descrivere cosa non è l’Intelligenza Artificiale. La prima, apparentemente scontata cosa che l’IA non può essere è: umana. Certo, utilizzando ChatGPT può sorgere il dubbio di essere effettivamente alle prese con un essere umano e che dietro le frasi che compaiono in chat ci possa essere qualcuno in carne ed ossa che le digita tanto che, alcuni utenti, vi si relazionano porgendo scuse e ringraziando. Tuttavia, questa è solo apparenza perché la macchina – e la tecnologia che vi sta dietro – non ragionano come noi, non si fondano sui nostri stessi concetti o presupposti ma sembrano farlo perché sono state addestrate per ottenere proprio questo risultato.  

In medicina, ad esempio, si utilizza con ottimi risultati l’Intelligenza Artificiale analitica, che esaminando l’immagine di una retina riesce a determinare se l’occhio sia affetto da retinopatia o meno. Questi sistemi riescono ad essere più precisi e immensamente più veloci di una persona perché sono stati addestrati attraverso immagini immesse dagli stessi professionisti e pertanto si basano su una conoscenza di base immensa. Al tempo stesso, però, il loro compito e le loro capacità si esauriscono qui, nella formulazione di una diagnosi, sulla quale però non possono disquisire perché, appunto, non sono persone umane con competenze logiche, dialogiche e professionali.

Similmente, l’IA generativa, quella cioè che sta dietro a strumenti come ChatGPT e che, come il nome stesso dice, genera testi, immagini e tanto altro, è addestrata con parole, frasi, immagini, blog, libri elettronici in modo tale da riuscire a sua volta a generare nuovi prodotti per similitudine e comparazione. Nel caso dell’elaborazione di un testo, ad esempio, Chat GPT mette insieme delle frasi (quasi sempre) di senso compiuto perché si fonda su un corpus di testi da cui prende spunto. È questo il motivo per cui, se scriviamo “Io mangio”, ChatGPT probabilmente proporrà come complemento oggetto “un panino/una mela/la pastasciutta” piuttosto che “una scarpa/un tavolo/la televisione”. Essa funziona per imitazione e collocazione, non in maniera logica e men che meno creativa. È sempre questo il motivo per cui, chiedendo a ChatGPT chi è Bruno Kessler, il sistema inizialmente fornisce informazioni esatte ma ad un certo punto sbaglia, arrivando a sostenere che Kessler era uno scienziato, e lo fa perché tipicamente i centri di ricerca prendono il nome da figure di questo tipo e non da politici particolarmente illuminati.

Anche i testi narrativi e poetici che possiamo creare con l’IA non sono creativi, non scaturiscono, cioè, da una mente pensante o da un’emozione trasposta su carta – o schermo – ma sono mere stringhe di parole, seppur di un certo livello e piacevolezza.

Bisogna quindi essere consapevoli dei meccanismi alla base delle nuove tecnologie per poterle usare a nostro vantaggio e in modo davvero efficace.

Da questi pochi esempi di utilizzo, risulta già chiaro quanto l’Intelligenza Artificiale sia pervasiva e trasformativa per le nostre vite, ed è per questo motivo che va adeguatamente normata. Su questo tema ha preso la parola il professor Casonato, che ha posto l’attenzione, in particolare, su cosa o chi stia dietro una tecnologia tanto potente, che potrebbe approfittarne per orientare il voto politico, le tendenze di acquisto e molto altro.

Il costituzionalismo ha l’obiettivo di limitare il potere e orientarlo al benessere della società, garantendone i diritti. Allo stesso modo, se l’IA ha un potere trasformativo va regolamentata, per gli stessi motivi, perché dietro IA ci sono poteri privati, imprenditori e commercianti che potrebbero far prevalere i loro interessi al benessere sociale. 

Che cosa può fare il diritto? Recuperare i principi e i diritti che già abbiamo nella costituzione e adattarli per venire incontro alle nuove sfide di questa tecnologia.

E, siccome l’IA si confonde con gli esseri umani, bisogna pensare ad un’integrazione del consenso informato che renda trasparente il fatto che un’immagine sia stata costruita o un testo sia stato scritto da un umano o da ChatGPT. Rimane, a tal proposito, il problema del copyright di immagini o testi creati con IA, che non è ancora stato risolto perché attualmente poggia su base personale e antropomorfica. Solitamente la responsabilità è collegata all’autonomia ma come si affronta la questione nel caso delle macchine? Non è da escludere che in futuro servirà un’assicurazione per l’uso di sistemi ad IA.

Un altro concetto fondamentale è il cosiddetto diritto alla discontinuità e all’incoerenza: l’IA propone all’utente cose che lo stesso ha già cercato, letto, ordinato, ecc. perchéchi la usa viene profilato. Questo può essere pericoloso perché alla lunga potrebbe, per esempio, influenzare l’orientamento politico o fornire (dis)informazioni tendenziose (eco chamber); essendo la profilazione di carattere conservativo e polarizzante, l’utente non è più esposto a opinioni diverse ma solo quelle affini alle sue e ciò sostanzialmente impedisce le basi della democrazia. Ecco perché è necessario rivendicare il diritto a uno strumento che forzi le eco chamber, le allenti e le renda permeabili in modo da potersi confrontare con qualcosa di diverso, discontinuo e incoerente rispetto allo storico precedente; bisogna, cioè, rivendicare il diritto di essere esposti al confronto con ciò che è diverso da noi stessi perché solo ciò può dare origine ad una società libera e consapevole. Un tentativo che va timidamente in questa direzione è il tasto “Surprise me” recentemente introdotto dalla piattaforma di streaming Netflix, che consente di ricevere offerte di film e serie non conformi ai propri gusti, ottimo esempio di integrative AI: macchina e uomo collaborano per aumentare le capacità intellettive delle persone, non sostituirle.

Alzando il tiro, ciò è realizzabile attraverso una stretta collaborazione e sinergia tra media, giuristi e tecnici informatici, per realizzare sistemi basati sull’Intelligenza Artificiale rispettosi dell’ AI Act.

Stephen Hawkings disse che l’Intelligenza Artificiale potrebbe essere tanto la cosa migliore quanto la peggiore mai successa all’umanità: è ancora molto presto per fare previsioni, ma abbiamo già iniziato ad individuare possibili rischi e punti di attenzione della tecnologia più potente in nostro possesso.

 


Autore/i