intervento della politica

Deepfake e abusi digitali: più di 50 vip italiane nel sito che le ‘spoglia’ con l’IA

La denuncia di Francesca Barra fa scattare le indagini della polizia postale: online nudi falsi di giornaliste, attrici e politiche generati con l'intelligenza artificiale

Deepfake e abusi digitali: più di 50 vip italiane nel sito che le ‘spoglia’ con l’IA

Ancora violenza sulle donne, non parliamo di femminicidi, ma di un’altra, subdola, modalità di ferire, mortificare e degradare il genere femminile.

Dopo i casi del gruppo Facebook “Mia Moglie” e del sito Phica.eu, è stata scoperta un’altra piattaforma online che sfrutta l’intelligenza artificiale per violare la privacy e la dignità delle donne. Si tratta di “Social Media Girls” e, dietro un’apparente veste di forum dedicato ai social network, nasconde un archivio inquietante di immagini manipolate in cui compaiono conduttrici, attrici, cantanti e persino figure politiche italiane, tutte “spogliate” digitalmente grazie a sofisticati algoritmi di deepfake.

La denuncia di Francesca Barra e l’intervento della polizia postale

L’allarme è esploso dopo la denuncia pubblica della giornalista e scrittrice Francesca Barra, che sui propri canali social ha raccontato di aver scoperto nel forum immagini false che la ritraggono nuda. La polizia postale ha immediatamente avviato indagini per accertare la natura dei contenuti e l’origine dei materiali diffusi, nonché per identificare i gestori e gli utenti che li condividono.

Deepfake e abusi digitali: più di 50 vip italiane nel sito che ‘spoglia’ con l’IA
La rabbia di Francesca Barra

All’interno del sito, accessibile senza alcun controllo d’età – è sufficiente dichiararsi maggiorenni – esiste una sezione esplicitamente intitolata “AI undress anybody”. Qui gli utenti possono richiedere, creare o scaricare immagini di personaggi noti “spogliati” digitalmente.

Deepfake e abusi digitali: più di 50 vip italiane nel sito che le ‘spoglia’ con l’IA
Francesca Barra

Le fotografie, distribuite in decine di pagine, mostrano volti familiari del mondo dello spettacolo, della musica e della politica: Chiara Ferragni, Diletta Leotta, Caterina Balivo, Federica Nargi, Benedetta Parodi, Michelle Hunziker, Maria Elena Boschi, Sophia Loren, Arisa, Selvaggia Lucarelli, Cristina D’Avena, Elisabetta Canalis, Angelina Mango e molte altre.

Alcune di queste immagini risalgono a mesi fa, altre sono state pubblicate di recente; alcune, nel frattempo, risultano rimosse.

“Sono oltre 50 le italiane note del sito con nudi realizzati con AI”, ha dichiarato Selvaggia Lucarelli, anch’essa vittima della piattaforma. La giornalista ha spiegato sui propri profili social che il forum “ospita oltre sette milioni di utenti, con decine di migliaia di iscritti attivi ventiquattro ore su ventiquattro”.

Dalla rabbia all’indignazione

Lucarelli invita alla prudenza nella diffusione del nome del sito, definendola “un’azione controproducente che non farebbe che aumentare la visibilità di quel luogo tossico”. Ha inoltre aggiunto che, pur trattandosi di immagini false e create digitalmente, “non mi sono sentita terribilmente turbata, e credo neppure le altre. Tuttavia resta un fenomeno grave, che normalizza la violenza digitale contro le donne”.

 

Visualizza questo post su Instagram

 

Un post condiviso da Selvaggia Lucarelli (@selvaggialucarelli)

Francesca Barra nel suo sfogo parla di “una violenza e un abuso che marchiano la dignità, la reputazione, la fiducia. È un furto dell’immagine, del corpo, della libertà di essere viste come si è, non come un algoritmo o una mente malintenzionata decide di rappresentarci”.

Barra denuncia una distorsione profonda del progresso tecnologico: strumenti nati per innovare vengono piegati a logiche di sopraffazione e voyeurismo.

 

Visualizza questo post su Instagram

 

Un post condiviso da Francesca Barra (@francescabarra1)

La politica interviene: “È uno stupro virtuale”

Non sono mancate le reazioni dal mondo politico. La vicepresidente del Senato Licia Ronzulli (Forza Italia) ha espresso parole durissime:

“Un altro, disgustoso e agghiacciante sito che usa la tecnologia per violentare le donne. ‘Spogliare’ con l’intelligenza artificiale un volto, un corpo, una vita, senza consenso, non è intrattenimento, è uno stupro virtuale”.

Ronzulli ha ricordato che oggi, grazie alla Legge 132/2025, chi realizza o diffonde deepfake senza consenso rischia fino a cinque anni di carcere.

“Se prima ci si poteva solo indignare – ha dichiarato – ora chi violenta con un clic è un criminale, non un hacker”.

Sulla stessa linea le senatrici Raffaella Paita (Italia Viva), capogruppo al Senato, e Daniela Sbrollini, capogruppo in Commissione femminicidio, che hanno definito il fenomeno “una forma di violenza inaccettabile e pericolosa, che va combattuta con fermezza e strumenti legali adeguati”.

Un fenomeno in espansione e difficile da controllare

Il caso di Social Media Girls si inserisce in un contesto più ampio, a pochi mesi di distanza dallo scandalo del gruppo Facebook “Mia Moglie”, dove venivano condivise foto intime senza consenso, e dal sito Phica.eu, chiuso dopo un intervento della polizia postale per la pubblicazione di immagini rubate corredate da commenti sessisti.

Forum come quello ora sotto inchiesta raccolgono centinaia di immagini “deepfake”, ovvero contenuti digitali falsificati mediante intelligenza artificiale. Gli utenti possono persino commissionare “ordini” specifici: chiedono la creazione di nuovi nudi virtuali di personaggi famosi, sfruttando algoritmi in grado di manipolare foto e video con risultati sempre più realistici.

I deepfake si dividono in varie categorie:

  • Face swapping: sostituzione del volto di una persona con quello di un’altra in un video o in un’immagine, mantenendo espressioni e movimenti naturali.
  • Manipolazione vocale e mimica: ricreazione della voce, della cadenza e dei movimenti di una persona per simulare discorsi o situazioni mai avvenute.
  • Generazione sintetica: creazione di immagini o video completamente inventati, ma perfettamente realistici.

Le moderne tecnologie di intelligenza artificiale rendono queste manipolazioni accessibili a chiunque disponga di un computer e di software gratuiti o a basso costo. Riconoscere un deepfake è sempre più difficile, ma alcuni dettagli possono tradirlo: movimenti oculari innaturali, incoerenze nella luce, difetti di pixel o sincronizzazione imperfetta tra labbra e voce.

Il rischio non è solo reputazionale. Queste tecniche, se usate in modo illecito, possono servire per truffe, diffamazioni, revenge porn o campagne di disinformazione, con danni psicologici e sociali enormi per le vittime.

La nuova legge italiana contro i deepfake

Dal 10 ottobre 2025, con l’entrata in vigore della Legge n. 132/2025, l’Italia ha introdotto nel Codice penale l’articolo 612-quater, che punisce l’“illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”.

Il reato si configura quando si producono o diffondono immagini, video o audio generati artificialmente che inducono in errore sulla loro autenticità e arrecano un danno alla persona rappresentata. La pena prevista è la reclusione da uno a cinque anni, anche in assenza di scopo di lucro: basta la lesione della dignità, reputazione o privacy della vittima.

Nei casi più gravi – ad esempio se l’intento è diffamatorio, estorsivo o legato a revenge porn – la pena può essere aumentata. L’azione penale è promossa su querela della persona offesa, ma si procede d’ufficio se la vittima è minorenne, incapace o una pubblica autorità.

Un passo avanti, ma non basta

La nuova normativa rappresenta un importante strumento di tutela per le vittime e segna un punto di svolta nel riconoscimento giuridico della violenza digitale. Tuttavia, la rapidità con cui evolvono le tecnologie di intelligenza artificiale impone un aggiornamento costante delle leggi e un rafforzamento dell’educazione digitale.

Il caso Social Media Girls dimostra come il confine tra realtà e manipolazione stia diventando sempre più sottile, e come la mancanza di consapevolezza e controllo possa trasformare l’innovazione in un’arma di abuso.