Adesso Elon Musk e il fondatore di ChatGPT invocano "cautela" con l'intelligenza artificiale
Il Ceo di Tesla, insieme ad altri mille ricercatori e manager, chiede uno stop per evitare il tanto temuto "scenario Terminator"
L’atavico timore che le macchine possano prendere il controllo del mondo, rendendo schiava l’umanità, accompagna la letteratura e il cinema sin dai tempi della Rivoluzione Industriale. Del resto il cambiamento destabilizza e può spaventare; lascia più spiazzati quando ad evocare un fantomatico “effetto Terminator” sono le superstar dell’hi tech, coloro che hanno fatto la propria fortuna con questi strumenti.
Negli scorsi giorni due nomi di primo piano quali Sam Altman, fondatore di OpenAI (la startup creatrice di ChatGPT) e l’uomo più ricco del mondo, colui che sogna la colonizzazione di Marte, Elon Musk – in termini diversi – hanno espresso però la necessità di andarci con i piedi di piombo con l’intelligenza artificiale.
AI: per il fondatore di ChatGPT serve cautela
"Mano a mano che i nostri sistemi si avvicinano alla Agi stiamo diventando sempre più cauti nella creazione e diffusione di questi modelli”, ha spiegato Sam Altman, fondatore di OpenAI (la startup creatrice di ChatGPT). E ha aggiunto: “Le nostre decisioni richiederanno molta più cautela di quella che la società solitamente applica alle nuove tecnologie”.
Ciò che stupisce è che tutte queste “cautele” oggi evocate da Sam Altman non sono mai state messe in campo quando si è deciso di rendere disponibile ChatGPT a tutti e improvvisamente, mentre altre società hanno scelto di muoversi con maggiore attenzione. Insomma, una virata improvvisa. Recentemente l’uomo ha chiarito:
“Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala. Inoltre, migliorando sempre di più nella scrittura di codice informatico, potrebbero anche essere usati per eseguire cyber-attacchi”.
L’effetto Terminator
Altman, come Bill Gates o il suo ex socio Elon Musk, è infatti uno dei teorici del cosiddetto “scenario Terminator”, secondo cui sviluppare l’intelligenza artificiale potrebbe potenzialmente mettere in pericolo la stessa esistenza dell’essere umano, resa obsoleta (o peggio) da intelligenze artificiali dotate di coscienza, di capacità cognitive estremamente superiori alle nostre e che potrebbero potenzialmente perseguire in autonomia obiettivi contrari al benessere della nostra società.
Del resto, tempo fa, Musk, sul tema AI, aveva pronunciato una frase assai sinistra e poco “scientifica” in cui scomodava anche il demonio:
"Penso che dovremmo stare molto attenti all'intelligenza artificiale. Se dovessi indovinare qual è la nostra più grande minaccia esistenziale, probabilmente è quella. Quindi dobbiamo stare molto. Sempre più scienziati pensano che dovrebbe esserci una supervisione normativa forse a livello nazionale e internazionale, solo per assicurarsi che non facciamo qualcosa di molto sciocco. Con l'intelligenza artificiale stiamo evocando il demone. In tutte quelle storie in cui c'è il ragazzo con il pentagramma e l'acqua santa, è come se fosse sicuro di poter controllare il demone. Non ha funzionato.”
Preoccupazioni che, va chiarito, molti scienziati e informatici hanno spento sul nascere o qualificato come mera fantascienza. Fra questi autorevoli pragmatici spicca il nome di Andrew Ng, ex responsabile dell’intelligenza artificiale di Google.
Sam Altman, a tutte le qualificate voci che hanno invitato a non “filosofeggiare” su scenari ascientifici e più legati a superstizioni e retaggi psicologici, ha replicato:
“Alcune persone nel campo dell’intelligenza artificiale considerano i rischi legati alla Agi (e i sistemi successivi) immaginari. Se avranno ragione loro, saremo molto contenti di saperlo, ma agiremo invece come se questi rischi fossero esistenziali”.
Ciò che stranisce è che ad usare questi toni apocalittici – smentiti dalla maggioranza della platea scientifica – sia l’ad di una società scientifica, che fino a un mese fa non si era fatto alcun problema a diffondere senza reti, spiegazioni, filtri o sistemi di sicurezza ChatGTP, proprio la sua creatura. Viene quindi il dubbio che vi siano altre ragioni, magari commerciali, alla base del rallentamento in atto.
Elon Musk chiede una pausa di sei mesi
Ma Altman è in buona compagnia, in quanto a nomi altisonanti che invocano cautela con l’intelligenza artificiale. Fra i firmatari eccellenti di una lettera-appello pubblicata dalla organizzazione no profit Future of Life Institute, figura anche Elon Musk oltre al co-fondatore di Apple, Steve Wozniak.
Fanatico della tecnologia per antonomasia, che l’ha reso l’uomo più ricco del mondo, Musk ha investito in società di intelligenza artificiale ed è stato anche nel Cda di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari. Insomma, questo “demonio” di cui parla qualcosa deve aver fruttato anche a lui…Nel mirino di questi big non c'è tutta l'intelligenza artificiale ma i sistemi più avanzati:
"I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili", si legge nella lettera in cui si parla di una "corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare".
Da qui la richiesta di una pausa di sei mesi per lo "sviluppo congiunto e l'implementazione di protocolli condivisi" che assicurino la "sicurezza" dei sistemi "al di là di ogni ragionevole dubbio", si legge ancora nella missiva, che invita i laboratori di IA a concentrarsi nel rendere più "accurati, trasparenti, credibili e leali" gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti. Godiamoci una lunga estate dell'IA, e non corriamo impreparati verso l'autunno".
Resta un interrogativo: siamo di fronte a reali preoccupazioni etiche (che peraltro altrettanto nomi autorevoli scientifici non soltanto non rilevano, ma qualificano come pura fantascienza) oppure vi sono ragioni commerciali e politiche dietro questa improvvisa giravolta “cautelativa” di milionari che hanno costruito la propria fortuna proprio attraverso questi strumenti?
La tecnologia e i suoi rischi, c'è si è pentito...
Ma in questi giorni ha fatto molto scalpore e acceso un vivace dibattito la decisione di Geoffrey Hinton, il "padrino" dell'intelligenza artificiale di lasciare Google perché fortemente perplesso sulla reale potenzialità e credibilità della tecnologia soprattutto dopo aver preso coscienza di quelli che possono essere rischi e pericoli.
Hinton è stato infatti abbastanza perentorio nella sua disamina e sotto la lente era finita soprattutto la capacità dell'uomo di cogliere il vero dal falso, con dunque un occhio particolare rivolto alle fake news, basti pensare alle foto dell'arresto di Donald Trump o alla notizia dei funerali di Silvio Berlusconi.
Ecco allora che Hinton ha osservato nei giorni scorsi:
"Me ne sono andato per poter parlare dei suoi pericoli. Google ha agito in modo molto responsabile. In questo momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo".