STRETTA

L’UE mette al bando le app “Nude Fire” che spogliano persone reali con l’IA

Anche Meloni era intervenuta contro i deep fake con un post sui social

L’UE mette al bando le app “Nude Fire” che spogliano persone reali con l’IA

“I deepfake sono uno strumento pericoloso, perché possono ingannare, manipolare e colpire chiunque”.

Nei giorni scorsi, sui propri canali social, la Premier Giorgia Meloni aveva usato queste parole per denunciare la diffusione di alcune immagini false create con l’intelligenza artificiale che la ritraggono in intimo.

“Girano in questi giorni diverse mie foto false, generate con l’intelligenza artificiale e spacciate per vere da qualche solerte oppositore – ha twittato la Premier – Devo riconoscere che chi le ha realizzate, almeno nel caso in allegato, mi ha anche migliorata parecchio. Ma resta il fatto che, pur di attaccare e di inventare falsità, ormai si usa davvero qualsiasi cosa.

Io posso difendermi, molti altri no – ha aggiunto Giorgia Meloni – Per questo una regola dovrebbe valere sempre: verificare prima di credere, e credere prima di condividere. Perché oggi capita a me, domani può capitare a chiunque”.

Una tematica, quella dei cosiddetti deepfake, che da quando l’AI è diventata di largo uso quotidiano ha iniziato a porre dei forti interrogativi, dato che la condivisione sulla Rete di queste immagini può rappresentare un forte pericolo per la diffusione di fake news.

Notizie false che posso colpire trasversalmente chiunque, screditandone la reputazione, soprattutto di chi è un personaggio noto, come nel caso appena citato di Meloni.

L’UE e lo stop ai deepfake

Sull’argomento dei deepfake, l’attenzione era cresciuta notevolmente anche a seguito del caso del modello di intelligenza artificiale Grok, sviluppato dalla società xAI di Elon Musk.

Proprio sull’AI usata dal social X, negli ultimi mesi erano aumentati segnalazioni e articoli giornalistici che collegavano Grok alla generazione di immagini pornografiche ottenute da foto reali. Parallelamente, sono state segnalate anche numerose app “Nude Fire” progettate proprio per questo scopo, disponibili sui principali store digitali.

Per questo motivo, l’Unione Europea, che si sta muovendo su più fronti per quanto riguarda la vita digitale dei cittadini, ha deciso di intervenire, mettendo un freno ai deepfake.

“Accolgo con favore l’accordo politico sul nostro Digital Omnibus sull’AIha dichiarato su X la Presidente della Commissione Europea – Questo accordo crea un ambiente semplice e favorevole all’innovazione per la crescita del nostro ecosistema europeo di AI.

Allo stesso tempo, rafforziamo le tutele per i nostri cittadini – ha aggiunto Von Der Leyen – Per una governance dell’AI sicura e semplice in Europa”.

Nel dettaglio, l’UE ha siglato l’AI Omnibus, un pacchetto che modifica il precedente AI Act (prima grande legge dedicata al mondo dell’intelligenza artificiale).

La nuova normativa stabilisce che nell’Unione Europea non potranno essere immessi sul mercato sistemi di intelligenza artificiale progettati per creare foto, video o audio con persone identificabili in contenuti sessuali espliciti, senza il loro consenso. Un divieto che considera anche i sistemi che generano materiale pedopornografico.

Le aziende avranno tempo fino al 2 dicembre 2026 per adeguare i propri strumenti e introdurre misure di sicurezza in grado di prevenire questo tipo di utilizzo.

Regole più semplificate

Più generalmente, questo nuovo pacchetto Omnibus serve a integrare la precedente normativa.

L’AI Act era stato redatto per creare una classificazione del rischio: più un sistema può incidere su diritti fondamentali, sicurezza o salute, più è soggetto a obblighi stringenti. Tuttavia, diversi attori industriali e istituzionali hanno segnalato difficoltà operative, legate soprattutto alla complessità delle definizioni. Perciò è stato pensato il pacchetto Omnibus, proprio per semplificare alcuni obblighi.

L’accordo tra Parlamento e Consiglio europei introduce anche modifiche alla tempistica di applicazione dell’AI Act. Le regole sui sistemi di intelligenza artificiale ad alto rischio entreranno in vigore il 2 dicembre 2027 per i sistemi autonomi e il 2 agosto 2028 per quelli integrati in prodotti già regolati da altre normative europee sulla sicurezza.

Infine, è stato aggiornato l’obbligo di watermarking dei contenuti generati con l’intelligenza artificiale: dal 2 dicembre 2026, saranno applicati sistemi più stringenti di etichettatura e tracciabilità dei prodotti realizzati con l’AI.