Intelligenza Artificiale e contenuti giornalistici. Previsioni per un futuro plausibile
Nel mio interesse per il giornalismo c’è un momento segnato sull’agenda, con l’evidenziatore. Mi riferisco all’appuntamento annuale con il sito della Nieman Foundation, che alla fine dell’anno solare chiede ad alcune delle “smartest people in journalism and media” le previsioni per gli sviluppi del giornalismo nell’anno entrante.
Avevo utilizzato proprio questa fonte, la serie di interviste proposta dalla Nieman Foundation, per salutare lo scorso anno la nomina a direttore di FBK Magazine, come potete (ri)leggere qui. Bisogna scegliere, perché le idee che scaturiscono dalle risposte sono davvero tante, e molte costituiscono appetitoso e nutriente cibo per la mente. Cercando di fare dell’interesse personale un potenziale momento di confronto (non solo virtuale, se volete scrivermi, rispondo) ho pensato di concentrarmi su alcune delle non poche voci che ragionano sull’Intelligenza Artificiale, tema tutt’altro che marginale in particolare per chi ha a che fare con la Fondazione Bruno Kessler.
Cominciamo da Bill Grueskin, professore di giornalismo alla Columbia University, il quale ha provato a chiedere di rispondere alla domanda “Qual è il futuro del giornalismo?” a Chat GPT. Parentesi: Generative Pretrained Transformer è, in estrema sintesi, il sempre più noto strumento di elaborazione del linguaggio naturale, che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso. Il risultato dell’esperimento di Grueskin ha portato a una serie di risposte scontate ma non certo scorrette, sulla base delle quali lui stesso ci propone un futuro plausibile. Poiché la galassia della stampa locale è messa in crisi dalla scarsità di risorse, una possibile soluzione potrebbe essere quella di affidare all’intelligenza artificiale la gestione delle notizie d’agenzia, chiamiamole così, per consentire ai giornalisti e alle giornaliste di occuparsi di inchieste e reportage.
Un panorama simile è quello tratteggiato da Peter Sterne, giornalista indipendente. Sterne ha provato a ragionare sui programmi di Intelligenza Artificiale in merito alla possibilità di trascrivere interviste o, facendo un passo più avanti, di comporre articoli di cronaca. Non ha molti dubbi sul fatto che a questi risultati si arriverà, e, come Grueskin, intravvede in tali potenziali sviluppi un miglioramento della professione giornalistica. Meno ottimista è Josh Schwartz, CEO di Chartbeat, una risorsa digitale che consente di analizzare dati relativi alle prestazioni di specifici contenuti diffusi in Rete, molto utile al mondo del giornalismo. Secondo Schwartz esiste un grosso rischio nell’utilizzo di testi confezionati non da mente umana: quello della moltiplicazione di contenuti spam, notizie false e disinformanti, disponibili a bassissimo prezzo, se non gratuitamente. L’altra faccia della medaglia, insomma; se a basso costo si possono fare cose buone, lo stesso vale per le cose cattive e questo rischia di creare ulteriore confusione, già alimentata da chi, in carne e ossa, scrive molto male o in cattiva fede. Come risolvere? Una pista la indica con acume David Cohn, co-fondatore della piattaforma di messaggistica Subtext. La chiave è la competenza: per gestire rischi e potenzialità serviranno giornalisti preparati, pronti a formarsi nel nuovo panorama proposto dall’emergere dell’Intelligenza Artificiale.
Infine, prendendo spunto dalle potenzialità di Chat GPT (ancora lei), Janet Haven, executive director di datasociety, definisce prima il punto centrale della questione: le risposte date dall’Intelligenza Artificiale alle domande degli utenti spaziano tra risultati divertenti, a volte buffi e scorrevoli – in modo convincente – e altri invece inaffidabili e semplicemente sbagliati. La fiducia degli utenti nei confronti dei Media è in costante calo e l’utilizzo di simili strumenti rischia di “gettare benzina sul fuoco di un cassonetto già in fiamme”. L’utilizzo futuro della tecnologia è imprevedibile per i suoi stessi creatori, aggiunge Haven, ce lo dicono anni di ricerche che ribadiscono la necessità di accelerare il lavoro sulle norme necessarie per limitare gli usi potenzialmente dannosi di Intelligenza Artificiale, tecnologie algoritmiche e incentrate sui dati. Detto questo, Haven chiude con tre previsioni: la prima è che vedremo ChatGPT e strumenti simili utilizzati in modo contraddittorio, con l’obiettivo di minare la fiducia negli ambienti informativi, allontanando le persone dal discorso pubblico per instradarle verso comunità sempre più omogenee (quello che già fanno gli algoritmi dei social network, aggiungo io). La seconda è che prenderà il via una serie di stimolanti esperimenti e ricerche sui modi in cui la società si possa adattare a generatori di immagini come Dall-E e di testi come ChatGPT e sui possibili sviluppi delle loro potenzialità, in vista del beneficio collettivo e in particolare di quello delle fasce sociali più vulnerabili. La terza, riferita alla realtà statunitense, immagina uno sviluppo legislativo inteso a stabilire delle barriere significative intorno all’utilizzo dei vari sistemi di Intelligenza Artificiale in modo da tenere conto dei loro costi sociali e da anteporre la protezione dei diritti e delle libertà fondamentali alla pura innovazione tecnica.
Le riflessioni proposte dall’iniziativa di Nieman Foundation non finiscono qui, invito chi da questa breve sintesi commentata avesse ricevuto degli stimoli a continuare la lettura. Breve sintesi? È diffusa nel mondo del giornalismo l’idea che non si debba superare un certo numero di battute – salve eccezioni virtuose – per non costringere all’angolo lettrici e lettori. In questa che a me pare breve sintesi il rischio del superamento è reale. Mi serve però lo spazio per aggiungere un ragionamento su quanto ipotizzato da David Cohn, con le cui opinioni mi trovo in grande sintonia. Alla fine, la soluzione ai problemi molto di frequente passa attraverso l’accrescimento delle competenze: studiare è sempre una buona idea.
Vi ringrazio allora per essere arrivati fino qui, dandovi appuntamento a un prossimo editoriale, che prima o poi mi porterà a ragionare sui commenti che spesso sento in merito ad articoli di diverso contenuto: “è un po’ lungo…”.