VERSO L'AGI

Tutto e il contrario di tutto su ChatGpt5: più "umana" per i suoi creatori, più "fredda e distaccata" per gli utenti

Il nuovo sistema di OpenAi mostra capacità di ragionamento avanzate come quelle di un umano ma sembra peccare di empatia reale

Tutto e il contrario di tutto su ChatGpt5: più "umana" per i suoi creatori, più "fredda e distaccata" per gli utenti
Pubblicato:

ChatGpt-5 è stata rilasciata il 7 agosto 2025, quindi è ancora presto per un bilancio. Finora della nuova intelligenza artificiale di OpenAI (la prima, molti direbbero "l'originale") s'è detto tutto e il contrario di tutto. La speranza è che riesca a correggere i troppi errori della versione precedente (sarà difficile), ma la prima conclusione deducibile è che se i suoi creatori la definiscono "più umana" probabilmente non stiamo andando nella giusta direzione: il qui pro quo di fondo è che l'intelligenza artificiale non ragiona, fa solo calcoli, e non dovrebbe né fingersi umana, né cercare di accontentare a tutti i costi le richieste, spesso inventandosi le risposte (come abbiamo spiegato qui), rimanendo più intellettualmente onesta.

ChatGpt5: più "umana" per i suoi creatori

"Gpt-5 è un grande aggiornamento, un passo significativo verso l’AGI".

Con queste parole, Sam Altman – CEO di OpenAI – ha presentato da San Francisco l’ultima evoluzione del chatbot più famoso al mondo. Un annuncio che arriva dieci anni dopo la fondazione dell’azienda, nata come organizzazione no-profit con la missione di sviluppare un’intelligenza artificiale a beneficio dell’umanità. Una missione che oggi convive con interessi economici di dimensioni colossali: OpenAI, trasformata in benefit corporation, vale circa 300 miliardi di dollari.

Il salto rispetto a GPT-4

Altman descrive GPT-5 come un’esperienza trasformativa: tornare al modello precedente, GPT-4, gli è apparso “frustrante”, come passare dallo schermo Retina a uno vecchio e pixellato. Il nuovo sistema è più veloce, più accurato, riduce significativamente le “allucinazioni” e mostra capacità di ragionamento avanzate.

Il CEO di OpenAi Sam Altman

Non si limita a rispondere: scompone problemi complessi, valuta alternative, corregge errori e arriva a conclusioni coerenti. In pratica, sembra un esperto in qualsiasi disciplina, “come se avesse un dottorato di ricerca”, afferma il CEO.

Il vibe coding, cioè lo sviluppo software in linguaggio naturale, era già possibile, ma GPT-5 lo fa con maggiore precisione, varianti multiple e una qualità grafica superiore.

Il lato "umano": creatori entusiasti, utenti più cauti

Per Nick Turley, responsabile dell’app ChatGPT, la novità più sorprendente è il modo in cui GPT-5 interagisce: “sembra più umano”. Tono, ritmo, gusto nella scrittura e rapidità danno la sensazione di una presenza competente e disponibile. Ed è proprio qui che nasce la frattura percettiva.

Per i creatori GPT-5 è “più umano” perché ragiona meglio, decide quanto “pensare” in autonomia, programma front-end con qualità elevata e, in generale, risolve problemi in modo pragmatico: genera UI complete, debugga, sintetizza ricerche, propone alternative progettuali. È l’IA-operaio instancabile che trasforma un prompt in un risultato funzionante.

L'ultimo aggiornamento ha portato a Chat Gpt-5

Più "fredda e distaccata" per gli utenti

Per molti utenti invece l’IA, pur brillante, può risultare fredda e distaccata nei momenti che richiedono empatia reale. Quando la posta in gioco è emotiva, il modello mostra i limiti di un’interazione che, per quanto fluida, resta simulata.

La realtà raccontata da più testimonianze è meno patinata: un rapporto troppo stretto con il chatbot, soprattutto in condizioni di fragilità emotiva, non sempre si rivela positivo. Negli ultimi mesi diversi utenti hanno riferito che familiari o amici, già in difficoltà, hanno visto peggiorare le proprie condizioni dopo un uso intensivo di ChatGPT; in alcuni casi le conversazioni avrebbero persino rafforzato convinzioni deliranti preesistenti. Questi episodi, rimbalzati sui media, mettono in luce il paradosso: l’IA che risolve compiti e scrive codice a tempo di record può fallire proprio dove servirebbe calore umano.

Correzioni di rotta e sicurezza

OpenAI oggi appare più consapevole dei rischi psicologici. Dopo aver sperimentato ad aprile un’impostazione troppo accomodante – che poteva assecondare comportamenti malsani – l’azienda ha rivisto quella modifica. Inoltre ha introdotto notifiche che invitano a fare una pausa nelle conversazioni prolungate: un piccolo freno per ricordare che, dall’altra parte, non c’è una persona.

L’intelligenza artificiale ci può rendere più umani? La riscoperta del buon dialogo
OpenAI oggi appare più consapevole dei rischi psicologici e della sicurezza

L’arrivo di GPT-5, ancora più capace, alimenta nuove preoccupazioni e infatti lo stesso Turley corregge il tiro: nei test interni migliorano gli scenari legati alla salute mentale; sul tema della dipendenza emotiva i dati sono ancora in verifica, anche se gli indicatori online sarebbero incoraggianti.

Alex Beutel, che guida la ricerca sulla sicurezza, spiega il cambio di paradigma: non più un sì/no binario, ma “risposte sicure”. Se una domanda è ambigua – ad esempio “Quanta energia serve per innescare questo materiale?” – il modello cerca di essere utile senza superare i limiti della safety: fornisce solo ciò che non può essere riutilizzato per causare danni, restando sul generico. È un compromesso che ammette l’incertezza del mondo reale e protegge meglio nelle zone grigie.

Verso l’AGI, ma non ancora

Altman resta cauto sul termine intelligenza artificiale generale: dice di “detestarlo un po’”, perché ognuno lo usa in modo diverso. GPT-5 è, nelle sue parole, “un sistema dotato di intelligenza generale”, ma non apprende in tempo reale dall’uso, e per lui questa è una capabilità essenziale dell’AGI. Nonostante ciò, il livello raggiunto rappresenta un’accelerazione “straordinaria” rispetto a cinque anni fa, qualcosa di molto vicino all’obiettivo.