Il Nobel per la fisica spiegato…da una fisica
Intervista di Claudio Ferlan, direttore di FBK Magazine, a Federica Mantegazzini in occasione della partecipazione della ricercatrice alla serata “Semplicemente Nobel”.
“Semplicemente Nobel” è stata definita “una serata di grandi idee spiegate con parole semplici”. L’obiettivo dell’incontro del 30 ottobre 2024 a Dolcè (VR) è raccontare chi sono e soprattutto cosa fanno le persone che nel 2024 hanno vinto un premio da molte e molti percepito come il più prestigioso al mondo. Tra gli invitati a portare a compimento questo rilevante impegno, spiegare cose complesse in parole semplici, c’è Federica Mantegazzini, fisica di professione e nostra collega alla Fondazione Bruno Kessler. Abbiamo chiesto a Federica di aiutarci a comprendere qualcosa in più a proposito del Nobel per la fisica 2024.
L’invito a “Semplicemente Nobel” ti è arrivato prima che il premio fosse assegnato a Geoffrey E. Hinton e John Hopfield. Erano nella lista dei favoriti?
Nelle settimane precedenti all’assegnazione dei premi Nobel ci sono sempre tanti nomi in circolazione, un po’ come succede per i temi della maturità. Le due macro-aree che erano più “in odore di Nobel” erano il Quantum Computing e l’Artificial Intelligence (AI), avendo avuto entrambe una forte accelerazione e un impatto crescente sia nel mondo scientifico che nella nostra società. Per i computer quantistici i nomi favoriti erano David Deutsch, fisico britannico che per primo ne ha descritto i principi con la macchina di Turing quantistica, e Peter Shor, matematico americano che ha guadagnato notorietà grazie all’invenzione dell’algoritmo quantistico di fattorizzazione dei numeri interi in numeri primi che porta il suo nome – algoritmo di Shor. Per l’AI, invece, erano diverse le ipotesi dei vincitori e quattro si sono concretizzate: John Hopfield e Geoffrey Hinton, vincitori del Nobel per la Fisica “per le scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali”, e John Jumper e Demis Hassabis di DeepMind, scienziati dell’unità di Google dedicata all’AI, vincitori del Nobel per la Chimica “per la previsione della struttura delle proteine”. L’intelligenza artificiale è dunque la vera protagonista dei Nobel di area scientifica di quest’anno.
Nel commentare l’assegnazione, Nello Cristianini (professore di Intelligenza Artificiale all’Università di Bath), ha definito Hinton e Hopfield “due pionieri dell’intelligenza artificiale, e particolarmente delle reti neurali”. Perché, a tuo parere?
Lo sviluppo dell’apprendimento automatico, in inglese machine learning, e dell’intelligenza artificiale è decollato nell’ultimo ventennio, ma le origini dei metodi di machine learning si radicano indietro nel tempo, con i primi studi pionieristici già avviati negli anni Ottanta. Nel 1982 proprio John Hopfield ha introdotto un modello matematico, la rete di Hopfield, che imita la memoria associativa. La memoria associativa, per intenderci, è quella che utilizziamo per ricordarci una parola per assonanza con un’altra parola, o il volto di una persona per somiglianza con un’altra persona che conosciamo. La rete di Hopfield spiega come tale memoria sia il risultato di un comportamento collettivo degli elementi di elaborazione nel nostro cervello, ovvero dei nostri neuroni. La rete di Hopfield può memorizzare delle immagini e, se la interroghiamo mostrandole un’altra immagine, è in grado di individuare tra quelle che ha in memoria la più somigliante all’immagine proposta.
Geoffrey Hinton ha esteso la ricerca di Hopfield introducendo nel 1985 la cosiddetta Macchina di Boltzmann, una rete neurale artificiale basata sulla distribuzione statistica di Boltzmann che imita il nostro processo di apprendimento. La macchina di Boltmzann può essere addestrata a riconoscere e a classificare statisticamente pattern o immagini. In altre parole, se allenata con tante immagini di gatti, la macchina di Boltzmann sarà poi in grado di riconoscere la presenza di un gatto in un’immagine mai vista prima. Si tratta del metodo alla base degli attuali modelli generativi implementati con reti neurali profonde.
È dunque chiaro come Hopfield e Hinton si siano interessati alle reti neurali e al machine learning in “tempi non sospetti”, quando questo campo scientifico e applicativo era ancora allo stato embrionale. Ciò nondimeno, i loro sforzi hanno contribuito in modo significativo a gettare le basi dei modelli e degli algoritmi di machine learning che studiamo e sviluppiamo oggi, a distanza di quarant’anni. Questa credo sia la motivazione alla base del prestigioso premio conferito ai due scienziati.
Geoffrey E. Hinton è laureato in psicologia. Quanto è importante la collaborazione tra competenze differenti nelle ricerche più avanzate della tua disciplina?
La fisica è multidisciplinare per definizione, perché “c’è un po’ di fisica in tutto”. In fisica, infatti, sviluppiamo modelli o equazioni per spiegare il comportamento della natura o, in altre parole, ideiamo descrizioni astratte per spiegare fenomeni concreti. Molto spesso però accade che i modelli teorici sviluppati per spiegare determinati fenomeni fisici si possano applicare a sistemi completamente diversi. Ne sono un esempio proprio i risultati dei due premi Nobel, Hopfield e Hinton.
L’idea della rete di Hopfield è nata dal tentativo di spiegare l’interazione degli spin degli atomi nei materiali magnetici e poi è stata utilizzata per modellare il comportamento collettivo dei neuroni. In questo schema, i neuroni sono l’analogo degli atomi e lo stato del neurone, “acceso” o “spento”, è l’analogo dello spin dell’atomo, che possiamo immaginarci come una freccia che punta in alto o in basso.
La macchina di Boltzmann introdotta da Hinton si può interpretare come una sorta di evoluzione della rete di Hopfield, dove gli spin si agitano e cambiano direzione per via del rumore termico introdotto dalla temperatura del sistema. Per raggiungere questo risultato, Hinton, con un background legato sia all’informatica che appunto alla psicologia e alle neuroscienze, ha collaborato con David Ackley, un informatico, e con Terrence Sejnowski, un biofisico. È dunque evidente come il connubio di discipline diverse sia stato fondamentale anche per questo risultato.
Il carattere interdisciplinare della fisica e delle sue applicazioni diventa infine lampante se si considerano i campi di applicazione del machine learning e delle reti neurali, che spaziano dal supporto alle diagnosi mediche alle proiezioni finanziarie, dalla classificazione dei raccolti agricoli alla ricerca farmaceutica, fino all’analisi di dati in ricerche di fisica fondamentale, solo per citarne alcuni. Le reti neurali nate dall’analogia tra sistemi neurologici e sistemi atomici, e dunque da una sorta di ponte tra la neuroscienza e la fisica, sono ora applicate non solo in medicina e in fisica, ma anche in chimica, economia, informatica, meteorologia, biologia e molte altre discipline.
Proviamo a lucidare la sfera di cristallo. Che impatto potrebbe avere questo Nobel sulle direzioni di ricerca future?
Non serve la sfera di cristallo per prevedere che l’intelligenza artificiale sarà sempre più presente, sia nel mondo della ricerca sia nella nostra società. Il conferimento di ben due premi Nobel, per la Fisica e per la Chimica, legati alla stessa disciplina è un segnale forte in questo senso. Per quanto riguardo l’ambito della ricerca in fisica, le reti neurali e il machine learning sono sempre più sfruttate per l’analisi di dati e modelli. Il punto di forza di queste tecniche è la capacità di riconoscere specifici pattern in grandi quantità di dati, un po’ come cercare un ago in un pagliaio. Quali linee di ricerca in fisica potranno trarne vantaggio? Tante, ma scommetterei – con l’aiuto della sopracitata sfera di cristallo appena lucidata – sulla fisica delle particelle ad alta energia e sull’astrofisica.
Al Large Hadron Collider (LHC) al CERN ogni secondo avvengono 600 milioni di collisioni di protoni e ogni collisione produce una miriade di particelle che vengono misurate dai rivelatori. Si accumulano circa 1 Petabyte – ovvero un milione di Gigabyte – di dati al secondo, l’equivalente di riempire la memoria di 200.000 DVDs ogni secondo. In questa sterminata quantità di dati, i fisici cercano specifici pattern che sono una sorta di “firma” di certe interazioni o particelle, come il famoso bosone di Higgs. Le reti neurali sono già utilizzate in questo ambito e nuovi algoritmi e approcci sono sempre più studiati per trovare altre “firme” di cui siamo alla ricerca.
In astrofisica esiste per esempio un fenomeno chiamato lente gravitazionale, che consiste nella deformazione apparente di un oggetto celeste a causa della curvatura spazio-temporale prevista dalla Relatività Generale. L’immagine del buco nero che tutti abbiamo visto sulle pagine dei giornali qualche anno fa è un esempio di questo effetto. Spesso però le manifestazioni della lente gravitazionale sono difficili da identificare e qui entra in gioco il potenziale delle tecniche di intelligenza artificiale, in grado di riconoscere similitudini e corrispondenze tra tante diverse immagini, in questo caso immagini dello spazio.
Le reti neurali emulano il cervello umano, sono in grado di apprendere e sono sempre più potenti, ma sono davvero “intelligenti”? La parola intelligenza deriva dal latino intelligere – leggere dentro, vedere in profondità, in altre parole intuire. L’intuizione è la scintilla che nasce dalla creatività e che ha fatto esclamare ad Archimede il suo proverbiale “Eureka!”. Fino a quando le reti neurali non saranno in grado di interpretare e di immaginare, e non solo di riconoscere, personalmente ritengo non saranno realmente intelligenti.