Intelligenza artificiale

Troppi video fake generati dall’intelligenza artificiale: anche OpenAI decide di chiudere Sora

In questo contesto complesso, arriva una notizia inattesa: OpenAI avrebbe deciso di chiudere Sora, il suo strumento per la generazione di video da testo

Troppi video fake generati dall’intelligenza artificiale: anche OpenAI decide di chiudere Sora

L’intelligenza artificiale sta rivoluzionando le nostre vite. Spesso in positivo, a volte con grandi rischi. Insieme alle opportunità emergono anche problemi sempre più evidenti: dalla difficoltà nel riconoscere i video generati dall’IA fino alla proliferazione di contenuti di bassa qualità su piattaforme come YouTube.

I chatbot non riconoscono i video generati dall’IA

Uno degli aspetti più critici riguarda la capacità dei sistemi di intelligenza artificiale di identificare contenuti artificiali. Secondo un test condotto da NewsGuard, alcuni dei principali chatbot attualmente disponibili faticano a distinguere i video creati con l’IA.

L’analisi ha coinvolto tre strumenti molto diffusi:

  • ChatGPT
  • Gemini
  • Grok

I risultati sono preoccupanti: i chatbot non sono riusciti a riconoscere i video generati con Sora, la “sorella di Chat GPT per le immagini, nella grande maggioranza dei casi, se in mancanza di un logo specifico:

  • Grok: 95% di errori
  • ChatGPT: 92,5%
  • Gemini: 78%

Il dato più significativo riguarda proprio ChatGPT, considerando che è sviluppato dalla stessa azienda che ha creato Sora.

I pesci volanti e Trump avenger

Gli esempi sono tantissimi e hanno tratto in inganno molti. Ve ne proponiamo.

I pesci volanti a Nizza.

 

Visualizza questo post su Instagram

 

Un post condiviso da IA_News (@ia__news06)

Donald Trump e gli Avengers alla Casa Bianca

 

Visualizza questo post su Instagram

 

Un post condiviso da Artur Balaian (@artbnca)

Il ruolo dei watermark (e i loro limiti)

I watermark rappresentano uno degli strumenti principali per identificare contenuti generati dall’intelligenza artificiale. Nel caso di Sora, i video includono un logo visibile con la scritta “Sora”.

Tuttavia, il test di NewsGuard ha dimostrato un limite importante: esistono strumenti online in grado di rimuovere facilmente questi watermark. Una volta eliminata la filigrana digitale, anche i sistemi più avanzati fanno fatica a distinguere contenuti reali da quelli artificiali.

Nel test, 20 video falsi generati con Sora sono stati privati del watermark e sottoposti ai chatbot: il risultato è stato un fallimento quasi totale nel riconoscimento.

Disinformazione e progetti europei

La difficoltà nel riconoscere contenuti generati dall’IA rappresenta un problema serio nella lotta alla disinformazione online. Per questo motivo è nato AI4TRUST, un progetto finanziato dal programma Horizon Europe.

L’obiettivo è sviluppare una piattaforma che combini:

  • intelligenza artificiale
  • verifiche giornalistiche
  • fact-checking umano

per contrastare la diffusione di fake news e contenuti manipolati.

Il fenomeno dell’AI slop su YouTube

Parallelamente, cresce un altro problema: la diffusione massiccia di contenuti di bassa qualità generati automaticamente, conosciuti come “AI slop”.

Secondo uno studio di Kapwing:

  • fino al 33% dei video nel feed YouTube Shorts di un nuovo utente può essere classificato come AI slop o contenuti simili
  • il 21% dei primi 500 video mostrati a un nuovo account rientra in questa categoria

Questi contenuti sono progettati per massimizzare clic e visualizzazioni, spesso senza alcun valore informativo o creativo.

Un business multimilionario

Nonostante la bassa qualità, l’AI slop è diventato un business estremamente redditizio.

Un esempio è il canale Bandar Apna Dost, che utilizza una scimmia generata dall’IA in situazioni virali e ha raggiunto:

  • oltre 2 miliardi di visualizzazioni
  • circa 4,25 milioni di dollari annui stimati

Anche altri canali sfruttano estetiche simili a franchise popolari per attirare milioni di follower.

Le “capitali” globali dei contenuti AI

La produzione di contenuti generati dall’IA non è distribuita uniformemente. Alcuni Paesi emergono come veri hub dell’AI slop:

  • Pakistan (leader globale nella produzione)
  • Egitto
  • Bangladesh
  • Corea del Sud
  • Stati Uniti

Anche l’Italia compare nella top 10, con 8 canali AI slop tra i più popolari.

In molti casi, questi contenuti vengono spinti dagli algoritmi delle piattaforme, soprattutto verso nuovi utenti, aumentando il rischio di esposizione a contenuti di bassa qualità o fuorvianti.

Sora verso la chiusura: cosa sta succedendo

In questo contesto complesso, arriva una notizia inattesa: OpenAI avrebbe deciso di chiudere Sora, il suo strumento per la generazione di video da testo.

Lanciata nel 2024, Sora era considerata una delle tecnologie più avanzate nel settore. Tuttavia:

  • l’app non risulta più disponibile sugli store
  • l’azienda non ha fornito motivazioni ufficiali dettagliate
  • si parla di un possibile spostamento del focus verso altri ambiti, come la robotica

Sarebbe inoltre saltato un importante accordo con Disney per l’utilizzo dei suoi personaggi nei video generati.

Il futuro dei contenuti AI

L’evoluzione dell’intelligenza artificiale nei contenuti digitali pone interrogativi cruciali:

  • come distinguere ciò che è reale da ciò che è generato
  • come regolamentare la produzione automatizzata
  • come evitare la saturazione di contenuti di bassa qualità

Tra chatbot che non riconoscono i video fake e piattaforme invase da AI slop, il rischio è che l’ecosistema digitale diventi sempre più difficile da interpretare per gli utenti.

La sfida, nei prossimi anni, sarà trovare un equilibrio tra innovazione tecnologica e affidabilità dell’informazione.