il volto etico del progresso

Cos’è Periodic Labs, la nuova intelligenza artificiale verso cui sono “in fuga” i migliori ricercatori da OpenAI, Google e Meta

“L’intelligenza artificiale non deve sostituirci. Deve aiutarci a capire meglio chi siamo e cosa possiamo ancora scoprire.”

Cos’è Periodic Labs, la nuova intelligenza artificiale verso cui sono “in fuga” i migliori ricercatori da OpenAI, Google e Meta

Nella Silicon Valley si sta muovendo un gruppo di scienziati che vuole cambiare il volto dell’intelligenza artificiale. Dopo anni passati nei laboratori di colossi come OpenAI, Google DeepMind e Meta, oltre venti ricercatori hanno deciso di lasciare posizioni prestigiose e stipendi milionari per unirsi a una nuova start-up chiamata Periodic Labs.

La loro missione? Creare un’intelligenza artificiale che non sostituisca l’uomo, ma lo aiuti a fare scoperte scientifiche.

Una fuga dai giganti della tecnologia

L’iniziativa, raccontata dal New York Times, nasce anche da una storia personale. Quest’estate, il fondatore di Facebook Mark Zuckerberg aveva invitato Rishabh Agarwal, ricercatore già in forza a Meta, a unirsi al nuovo laboratorio di intelligenza artificiale dell’azienda. Gli aveva offerto milioni in azioni e uno stipendio da capogiro, chiedendogli di contribuire alla costruzione di una “superintelligenza” capace di superare il cervello umano.

Zuckerberg, scrive il Times, lo aveva esortato a “fare un atto di fede”, sostenendo che il rischio più grande, nel mondo che cambia, è “non rischiare affatto”. Agarwal, però, ha scelto diversamente. Ha rifiutato l’offerta e, insieme ad altri colleghi provenienti da Meta, OpenAI e DeepMind, ha fondato Periodic Labs.

Molti di loro hanno rinunciato a compensi a sette o otto zeri.

“È una scommessa ideale, non finanziaria”, racconta uno dei fondatori. “Vogliamo costruire un’intelligenza artificiale che acceleri la scienza, non che imiti o sostituisca l’uomo”.

Dalla superintelligenza all’intelligenza utile

Mentre i grandi laboratori perseguono obiettivi vaghi come la “superintelligenza” o l’“intelligenza artificiale generale”, Periodic Labs ha scelto una via diversa: usare la tecnologia per accelerare le scoperte scientifiche in settori come la fisica dei materiali, la chimica e la biotecnologia.

“L’obiettivo principale dell’intelligenza artificiale non è automatizzare il lavoro dei colletti bianchi,” spiega Liam Fedus, fra i fondatori del progetto. “Il vero obiettivo è accelerare la scienza.”

Fedus non è un nome qualunque: è stato parte del team di OpenAI che nel 2022 ha creato ChatGPT, il chatbot che ha rivoluzionato il settore. Dopo aver lasciato l’azienda lo scorso marzo, ha fondato Periodic Labs con Ekin Dogus Cubuk, ex ricercatore di Google DeepMind.

L’etica del progresso

Non si tratta solo di una sfida tecnologica, ma di una visione diversa dell’intelligenza artificiale.

“Non vogliamo costruire un cervello più grande dell’uomo”, spiega Fedus, “ma uno strumento che ci aiuti a comprendere meglio il mondo.”

Nel laboratorio di San Francisco — e presto in una nuova sede a Menlo Park — robot fisici condurranno esperimenti scientifici su larga scala, mentre i sistemi di intelligenza artificiale analizzeranno i risultati, imparando a riconoscere schemi e a progettare esperimenti autonomamente.

L’obiettivo è combinare dati digitali e osservazione del mondo reale, un approccio che potrebbe rivoluzionare la ricerca.

“Un sistema può leggere migliaia di articoli scientifici, ma non imparerà mai la scoperta solo dai testi,” spiega Cubuk. “Per capire davvero, deve sporcarsi le mani: osservare, sperimentare, fallire e riprovare.”

La macchina che impara dagli esperimenti

I ricercatori immaginano un futuro in cui i robot di Periodic Labs mescolano materiali, li riscaldano, li testano e ripetono il processo migliaia di volte. L’intelligenza artificiale, analizzando gli esperimenti, potrebbe individuare i modelli che portano al successo e imparare così a condurre autonomamente la ricerca scientifica.

“Non faremo la scoperta al primo tentativo,” ammette Cubuk, “ma sarà un percorso iterativo. Dopo molte prove, speriamo di arrivarci più in fretta.”

La start-up ha già raccolto oltre 300 milioni di dollari da investitori come Andreessen Horowitz (a16z), ma i fondatori non nascondono le difficoltà.

“Costruire un sistema che sperimenta nel mondo fisico è infinitamente più complesso che addestrare un modello digitale,” spiega Fedus. “Ma qualcuno deve provarci.”

Un’intelligenza che accelera la scienza

L’approccio di Periodic Labs si inserisce in una nuova tendenza dell’IA scientifica. Progetti come AlphaFold, sviluppato da Google DeepMind e recentemente premiato con il Nobel, hanno già mostrato come l’intelligenza artificiale possa accelerare la scoperta di farmaci.

OpenAI stessa riconosce il potenziale:

“Crediamo che l’intelligenza artificiale avanzata possa accelerare i progressi scientifici,” ha dichiarato Laurance Fauconnet, portavoce dell’azienda.

Ma Periodic Labs vuole spingersi oltre, portando la scienza fuori dallo schermo e dentro i laboratori. Non una corsa al potere computazionale, ma un ritorno alla curiosità umana, mediata dalla macchina.

Come ha sintetizzato uno dei fondatori:

“L’intelligenza artificiale non deve sostituirci. Deve aiutarci a capire meglio chi siamo e cosa possiamo ancora scoprire.”

Tra ideali e regole

Non tutti, però, condividono la stessa visione idealista di Periodic Labs. Se da una parte emergono progetti etici che puntano sull’uso responsabile dell’intelligenza artificiale, dall’altra crescono anche i rischi di abusi, manipolazioni e uso distorto delle nuove tecnologie.

Per questo, con la legge n. 32 del 2025, entrata in vigore il 10 ottobre, l’Italia ha recepito i principi dell’AI Act europeo (Regolamento UE 2024/1689), approvando la prima norma organica che disciplina in modo unitario l’uso dell’intelligenza artificiale.

Non è una legge “tecnica”, ma una legge sulla responsabilità: introduce nuovi reati e aggiorna quelli esistenti, in particolare nei settori economici e finanziari. Fra le misure più significative ci sono la criminalizzazione dei deepfake e l’inasprimento delle pene per i reati di aggiotaggio e manipolazione di mercato commessi con l’ausilio dell’IA.

Per i cittadini, la norma offre più tutele: chi è vittima di un deepfake può sporgere querela, chiedere la rimozione dei contenuti e ottenere un risarcimento. Per le aziende, invece, l’impatto è duplice: devono garantire un uso etico e controllato dell’IA, aggiornare le proprie policy e vigilare sui sistemi interni, perché ogni abuso può comportare sanzioni penali e amministrative.

Le imprese saranno inoltre obbligate a mappare i sistemi di IA impiegati, verificare la tracciabilità dei dati e assicurare la supervisione umana dei processi automatizzati, in linea con i principi di trasparenza dell’AI Act europeo.

In un’epoca in cui alcuni sognano la superintelligenza e altri, come i ricercatori di Periodic Labs, inseguono un’IA al servizio della conoscenza, servono, più che mai, regole e confini chiari.