Contatti

Marc Mézard tra i vincitori del premio NeurIPS 2025

, di Andrea Costa
Il fisico teorico della Bocconi premiato per un lavoro che chiarisce perché i modelli di diffusione generano senza “memorizzare” i dati di addestramento

Marc Mézard (Invernizzi Chair in Computer Science Bocconi) è tra gli autori dello studio “Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training”, insieme a Tony Bonnaire, Raphaël Urfin e Giulio Biroli (École Normale Supérieure)selezionato da NeurIPS 2025, una delle conferenze internazionali più importanti nel campo dell’intelligenza artificiale e dell’apprendimento automatico. L’evento riunisce ogni anno migliaia di ricercatori e rappresenta un punto di riferimento per la presentazione di contributi che definiscono lo stato dell’arte nel settore. Il riconoscimento attribuito al lavoro di Mézard valorizza una ricerca che affronta uno dei temi più discussi dell’IA generativa: comprendere come i modelli di diffusione riescano a creare nuovi contenuti senza limitarsi a riprodurre quelli del training. Un riconoscimento straordinario, se si considerano i numeri: 21.575 submission complessive, 5.290 accettate, e solo 77 invitate a un talk orale. Il paper di Mézard e colleghi entra così nell’élite, nel top 0,36% dei contributi presentati.

La ricerca mostra che durante l’addestramento dei modelli di diffusione emergono due diverse scale temporali. In una prima fase, il modello impara rapidamente a generare dati di alta qualità, un intervallo caratterizzato da un tempo caratteristico stabile. Solo successivamente può manifestarsi una tendenza alla memorizzazione dei dati di addestramento, associata a un tempo molto più lungo che cresce linearmente con la dimensione del dataset. Quando i dati sono numerosi, questo scarto fra le due fasi crea un ampio periodo in cui il modello è in grado di generalizzare efficacemente, producendo contenuti originali senza sovrapporsi ai dati reali.

La commissione ha evidenziato che il lavoro si distingue per la capacità di offrire una spiegazione teorica chiara a un problema aperto e cruciale, quello della non-memorizzazione nei modelli di diffusione. Il paper mette in luce un meccanismo generale di apprendimento, la cosiddetta regolarizzazione dinamica implicita, che emerge spontaneamente dal processo di addestramento e che potrebbe rivelarsi significativo anche per altre architetture di machine learning. La giuria ha inoltre riconosciuto l’importanza dell’approccio interdisciplinare adottato dagli autori, che integra strumenti della fisica statistica nella comprensione delle reti neurali moderne, contribuendo a un avanzamento teorico di rilievo per il settore.

Come osserva Mézard: “Capire i meccanismi che consentono ai diffusion models di non cadere nella memorizzazione non è solo una sfida teorica, ma anche un passo fondamentale per costruire sistemi di intelligenza artificiale più affidabili e robusti. Questo lavoro dimostra che è la stessa dinamica di training ad agire come forma di regolarizzazione.”

MARC MEZARD

Università Bocconi
Dipartimento di Scienze della Computazione