L’intelligenza artificiale è ormai entrata a pieno titolo nella nostra vita quotidiana — e ora anche nel codice penale. Con la legge n. 32 del 2025, entrata in vigore il 10 ottobre 2025, l’Italia ha recepito i principi dell’AI Act europeo (Regolamento UE 2024/1689), approvando la prima norma organica che disciplina in modo unitario l’uso dell’intelligenza artificiale.
Non è una legge “tecnica”: è una legge sulla responsabilità, che tocca tanto le persone quanto le aziende. Sono introdotti nuovi reati e aggiornati altri già esistenti, a partire da quelli economici e finanziari.
Due sono i capitoli più significativi: la criminalizzazione dei deepfake e l’aggravamento delle pene per i reati di aggiotaggio e manipolazione del mercato quando vengono commessi con l’ausilio dell’IA.
Deepfake: quando la tecnologia inganna e diventa reato
Con il termine deepfake si indica la creazione o manipolazione di immagini, video o registrazioni vocali che, grazie a software di intelligenza artificiale, riproducono persone o eventi reali in modo così realistico da sembrare autentici. Da oggi, chi diffonde consapevolmente questo tipo di contenuti può essere perseguito penalmente.

La legge punisce infatti la cessione, pubblicazione o diffusione di immagini, video o voci alterati dall’IA senza il consenso della persona rappresentata, quando ne derivi un danno — non solo economico, ma anche morale o reputazionale. La pena prevista è la reclusione da uno a cinque anni.
Il reato è procedibile a querela della persona offesa, ma lo Stato interviene d’ufficio se il deepfake è collegato ad altri reati gravi, o se la vittima è una persona incapace o una pubblica autorità.
L’introduzione di questa fattispecie colma un vuoto importante: finora, la diffusione di deepfake pornografici con vittime maggiorenni non rientrava chiaramente nel perimetro dell’articolo 612-ter del codice penale (revenge porn), che proteggeva in modo esplicito solo le immagini reali e non quelle generate artificialmente. Con la nuova legge, anche queste condotte diventano perseguibili.
Un problema reale, non solo virtuale
Il fenomeno dei deepfake non è più confinato ai social o all’intrattenimento: viene sempre più spesso usato per truffe, ricatti, campagne diffamatorie e manipolazioni mediatiche. Creare un video realistico che imita voce e volto di una persona è ormai alla portata di chiunque. In rete circolano esempi inquietanti: politici che “pronunciano” discorsi mai fatti, dirigenti d’azienda che “annunciano” decisioni false, celebrità coinvolte in video falsificati.
La nuova norma non ferma la tecnologia, ma impone un principio di responsabilità: se provochi un danno con un contenuto generato da IA, ne rispondi penalmente.
Quando l’IA manipola i mercati: aggiotaggio e frodi automatizzate
Ma la legge non si ferma al piano della tutela dell’immagine. L’altro fronte riguarda il mondo della finanza. L’uso dell’intelligenza artificiale in ambito economico è sempre più diffuso, e con esso crescono anche le opportunità di abuso. Il testo introduce nuove aggravanti per i reati di aggiotaggio e manipolazione del mercato, già previsti dal codice civile e dal Testo Unico della Finanza.
Le pene ora possono arrivare fino a sette anni di reclusione, quando il reato è commesso tramite strumenti o programmi di intelligenza artificiale. L’obiettivo è contrastare con più efficacia la criminalità finanziaria che sfrutta software capaci di generare in automatico ordini di borsa, notizie false o movimenti speculativi.
Dai bot al “pump and dump”
Secondo il Consiglio Superiore della Magistratura (CSM), l’uso dell’IA nei mercati è ormai “prassi corrente”. Uno degli esempi più noti è il pump and dump, una frode in cui una rete di social bot — programmi che imitano utenti reali — diffonde notizie false per gonfiare il valore di un titolo, che poi viene venduto rapidamente per trarne profitto.
Altre tecniche, come lo spoofing, prevedono l’invio automatico di ordini di acquisto o vendita senza intenzione di eseguirli, solo per alterare artificialmente i prezzi di mercato.
In entrambi i casi, l’IA permette di agire in modo rapido, su larga scala e con un’apparente distanza dall’autore umano. Per questo il legislatore ha scelto di inasprire le pene e introdurre aggravanti specifiche, considerato l’alto potenziale di danno economico e la difficoltà di individuare i responsabili.
Il nodo della responsabilità: può un algoritmo commettere un reato?
Il CSM ha richiamato un punto delicato: i sistemi di IA dotati di capacità di autoapprendimento possono prendere decisioni autonome, anche in modo imprevedibile. Ciò solleva un interrogativo giuridico complesso: come accertare l’intenzione del reato se la scelta è stata delegata a una macchina?
In altre parole, l’algoritmo può essere il “mezzo” attraverso cui si commette un crimine, ma resta sempre necessario dimostrare la responsabilità umana a monte — di chi lo ha programmato, gestito o utilizzato.

Il tema non è solo teorico. La legge considera l’uso dell’IA “mezzo insidioso” quando le sue caratteristiche rendono più gravi le conseguenze del reato o ostacolano la difesa, pubblica o privata.
Ecco perché l’intervento normativo non riguarda solo i singoli individui, ma anche le imprese, chiamate a rivedere i propri modelli di organizzazione e controllo (Modelli 231) per prevenire rischi legati all’uso improprio dell’intelligenza artificiale.
Le ricadute per cittadini e aziende
Per le persone comuni, la nuova legge significa maggiore tutela: chi è vittima di un deepfake può sporgere querela, chiedere la rimozione del contenuto e ottenere un risarcimento del danno.
Per le aziende, invece, l’impatto è doppio: da un lato, devono garantire un uso etico e controllato dell’IA, aggiornando policy e sistemi interni; dall’altro, rischiano sanzioni penali e amministrative se i propri strumenti vengono utilizzati per frodi o manipolazioni di mercato.
Inoltre, le imprese dovranno mappare i sistemi di IA utilizzati, verificare la tracciabilità dei dati e la supervisione umana dei processi automatizzati, in linea con gli obblighi di trasparenza previsti dall’AI Act europeo.
Un equilibrio tra innovazione e legalità
La Legge 32/2025 segna un punto di svolta: non criminalizza la tecnologia, ma introduce limiti chiari per evitare che diventi uno strumento di inganno o di frode. È una norma di responsabilità e consapevolezza, che mira a bilanciare libertà d’innovazione e tutela dei diritti fondamentali.
Oltre le sanzioni: chi sceglie un’IA etica e scientifica
Non tutto, però, si muove nella direzione della speculazione o dell’abuso. Accanto ai casi che spingono il legislatore a intervenire, esiste un fronte di studiosi e ricercatori che punta a costruire un’intelligenza artificiale etica e utile al progresso scientifico.
Un esempio è quello di Rishabh Agarwal, ricercatore di talento che ha rifiutato una proposta milionaria di Mark Zuckerberg per entrare nel nuovo laboratorio di IA di Meta, nato per sviluppare una “superintelligenza” in grado di superare le capacità umane.
Agarwal — insieme ad altri venti scienziati provenienti da Meta, OpenAI e Google DeepMind — ha invece scelto di fondare una nuova start-up nella Silicon Valley: Periodic Labs.
Molti di loro, secondo il New York Times, hanno rinunciato a compensi da capogiro per perseguire un obiettivo diverso: usare l’intelligenza artificiale non per sostituire l’uomo, ma per accelerare la ricerca scientifica.
“L’obiettivo dell’IA non è automatizzare il lavoro impiegatizio, ma accelerare la scienza”, ha spiegato Liam Fedus, cofondatore di Periodic Labs ed ex ricercatore di OpenAI, dove nel 2022 contribuì alla creazione di ChatGPT.
L’azienda sviluppa sistemi capaci di favorire scoperte in fisica, chimica e biotecnologia, dimostrando che esiste un modo diverso di intendere l’intelligenza artificiale: come strumento di conoscenza e di progresso, non di dominio o profitto.
Mentre le nuove leggi definiscono limiti e pene per gli abusi, cresce – fortunatamente – anche un movimento che vede nell’intelligenza artificiale una possibilità etica e creativa: una tecnologia che può proteggere, curare e migliorare la vita, invece di manipolarla.
La sfida dei prossimi anni sarà proprio questa: tenere insieme innovazione e responsabilità, punire chi inganna e sostenere chi costruisce.