PARADOSSO

Il “model collapse”: l’intelligenza artificiale rischia di autodistruggersi (dopo aver distrutto le sue fonti)

È necessario che l'informazione “umana” rimanga al centro dei sistemi, altrimenti già tra il 2035 e il 2040 il sistema rischia di collassare

Il “model collapse”: l’intelligenza artificiale rischia di autodistruggersi (dopo aver distrutto le sue fonti)

Potremmo paragonarlo ad un processo simile a quello che accade con una fotocopia ripetutamente copiata: ogni passaggio perde dettagli, e alla fine non si riconosce più l’immagine originale. Parliamo del “model collapse”.

Si tratta del rischio che, alimentando gli algoritmi con dati generati da altre macchine anziché da fonti umane originali, l’intelligenza artificiale finisca per produrre informazioni sempre più imprecise e ripetitive, sfumando la realtà fino a renderla inaffidabile.

Inoltre, stiamo nel “nostro”, nell’alveo dell’informazione online: l’IA può essere bravissima a copiare e rielaborare informazioni, con velocità e quantità impensabili per noi umani, ma non può inventare nulla. Se il modello della IA sta uccidendo i siti d’informazione (che vengono bypassati e non stanno più in piedi senza chi guarda la pubblicità) a tendere non ci sarà più nessuno che andrà a cercare, prendere e riportare i fatti: ha voglia, cara intelligenza artificiale, a cucinare e ricucinare le solite ritrite informazioni, sempre quelle, che girano in Rete… senza la “materia prima” prodotta dai giornalisti, il sistema prima o poi è destinato a collassare.

L’intelligenza artificiale rischia di autodistruggersi (dopo aver distrutto le sue fonti): il paradosso che mina informazione ed economia
Intelligenza artificiale

Questo è il paradosso della crescente diffusione delle intelligenze artificiali: mentre queste macchine sono progettate per analizzare e rielaborare dati in tempo reale, a lungo andare potrebbero auto-sabotarsi, riducendo la loro stessa capacità di apprendere da fonti fresche e autentiche.

L’IA sta lentamente distruggendo la propria fonte di sostentamento, ovvero l’editoria, il giornalismo ed il contenuto fresco, aggiornato ed inedito. Frutto di un lavoro di approfondimento umano.

Il “model collapse” non è un rischio ipotetico, ma una preoccupazione reale.

Alcuni esperti, tra cui quelli di Financialounge.com, hanno sollevato il problema, con ChatGPT che ha ammesso che il collasso dei modelli potrebbe iniziare già tra il 2035 e il 2040. Questo fenomeno non si tradurrebbe in un’interruzione improvvisa delle IA, ma in un progressivo deterioramento della qualità delle risposte e dei contenuti prodotti. Gli algoritmi diventerebbero sempre più imprecisi, con informazioni meno affidabili e contenuti più ripetitivi.

Un futuro senza informazione di qualità

L’impatto su settori chiave come l’informazione finanziaria, i media e la consulenza automatizzata sarebbe devastante. Se i modelli di IA continueranno a fare affidamento esclusivamente su contenuti generati da altre macchine, i risultati rischiano di diventare sempre meno utili e più difficili da interpretare. La qualità delle previsioni e delle analisi economiche potrebbe crollare, e in molti settori, da quello bancario a quello delle assicurazioni, gli algoritmi rischiano di produrre previsioni errate, con gravi conseguenze economiche.

Una volta che le aziende si renderanno conto di quanto questo fenomeno stia influenzando negativamente i risultati, potrebbero esserci gravi ripercussioni.

Wikipedia sta chiedendo ai colossi IA di contribuire

Il ritorno all’informazione prodotta da esseri umani, invece che dalle macchine, potrebbe diventare la chiave per mantenere la qualità dell’output. Wikimedia Foundation sta già affrontando una sfida simile, poiché l’aumento dei bot e delle IA che raccoglievano dati da Wikipedia ha messo sotto pressione i suoi server. Con l’accordo con colossi come Amazon, Meta e Microsoft, la fondazione sta cercando di risolvere il problema, chiedendo alle aziende di intelligenza artificiale di contribuire ai costi. Ma cosa succederà quando la qualità delle informazioni provenienti da queste fonti inizierà a deteriorarsi?

Il model collapse è il risultato di un ciclo auto-alimentante che alimenta le IA con dati che non sono più ancorati a fatti reali o freschi, ma solo a dati generati da altre macchine. Questo errore sistemico potrebbe sembrare banale, ma è una minaccia concreta per l’affidabilità dei sistemi di IA che ormai permeano tutti i settori, dall’economia alla medicina, dai media alla consulenza finanziaria. Senza una corretta supervisione umana, l’intelligenza artificiale finirà per perdere la sua capacità di discernere la realtà.

Il paradosso è che l’IA sta uccidendo la fonte che la sostiene: l’informazione umana. Gli algoritmi che si alimentano di contenuti generati da altre macchine senza il contributo di persone capaci di produrre conoscenza fresca e autentica finiranno per incagliarsi in un loop in cui la qualità delle risposte diventa sempre più debole e indistinta.

Prevenire il collasso

L’unica soluzione per evitare un disastro digitale è riconoscere l’importanza dell’informazione umana. La visione di un mondo in cui l’intelligenza artificiale domina totalmente i processi aziendali senza alcun controllo umano è illusoria.

È necessario che l’informazione “made by humans” rimanga al centro dei sistemi di intelligenza artificiale, garantendo così una supervisione e un continuo arricchimento della base di dati su cui gli algoritmi possono operare. Solo l’uomo, dunque, potrà mantenere l’intelligenza artificiale veramente intelligente?

Dei dati decisamente controcorrente, considerando che i grandi colossi stanno già operando sensibili tagli al personale, in favore dei chatbot.