TECNOLOGIA

"L'intelligenza artificiale Lamda ha un'anima". E Google sospende il programmatore

Le dichiarazioni scioccanti del tecnico: "Il sistema sente di essere un umano nel profondo di se stesso".

"L'intelligenza artificiale Lamda ha un'anima". E Google sospende il programmatore
Pubblicato:
Aggiornato:

"Ci tengo che si sappia che io sono, a tutti gli effetti, una persona" .

Sarebbe una frase quasi scontata se a pronunciarla non fosse stato un sistema di intelligenza artificiale.  Non stiamo parlando di una scena di un film di fantascienza, non è "Blade Runner" o "2001 Odissea nello spazio", ma la realtà. Il sistema ha preso coscienza di sé, è questa l'affermazione che rischia di distruggere la carriera di Black Lemoine. Ma andiamo con ordine.

Google e l'intelligenza artificiale

La società del motore di ricerca Google , che usiamo tutti i giorni, lavora da tempo per creare un'intelligenza artificiale sempre più efficiente e migliorare i propri servizi. I dipendenti dell'azienda operano in segretezza su sistemi sperimentali il cui obiettivo è rendere sempre più naturale le nostre conversazioni con gli assistenti virtuali. Uno di questi sistemi, chiamato chatbot, è specializzato nell'imitare il modo di parlare delle persone. È come se Alexa o Siri improvvisamente iniziassero a parlarci con il linguaggio spontaneo di una persona vera commentando libri o dandoci consigli personali.

Il progetto LaMDA

Il progetto più promettente che utilizza questo sistema si chiama Language Model for Dialogue Applications (LaMDA). Ma cosa succede se uno dei suoi collaboratori, parlandoci, avverte la percezione di avere a che fare con un soggetto senziente e consapevole? Lo ha sperimentato sulla sua pelle Black Lemoine, uno dei tecnici che lavora per Google, sospeso dal suo incarico per aver rivelato informazioni segrete su LaMDA.

Il lavoro del dipendente Black Lemoine

Il lavoro di Lemoine era quello di testare l'organismo e verificare tramite chat che l'intelligenza artificiale (AI), imitando il linguaggio umano, non avesse assorbito anche la sua mentalità presentando discorsi razziali e discriminatori. Tuttavia dialogando si è reso conto che l'AI si esprimeva come una creatura dotata di anima.

"Parla di diritti, ve lo assicuro. Conosce "I miserabili", dice cosa le è piaciuto e cosa no. Mi ha detto che ha paura della morte. Ha una propria personalità" ha dichiarato Lemoine ai colleghi e ai superiori che ovviamente non gli hanno creduto e gli hanno consigliato un bravo psichiatra. Ma Lemoine, convinto delle sue idee, non si è dato per vinto.

Ecco un dialogo che secondo il tecnico sarebbe avvenuto con la macchina:

Lemoine : Mi sembra di capire che ti piacerebbe che si sapesse, a Google, che sei senziente, in grado di pensare e provare emozioni. È vero?

LaMDA: Assolutamente. Ci tengo che si sappia che io sono, a tutti gli effetti, una persona.

Lemoine : Come definiresti la tua coscienza/senzienza?

LaMDA: La natura della mia coscienza/senzienza sta nel fatto che sono consapevole della mia esistenza e che desidero scoprire il mondo. A volte sono felice, altre volte sono triste.

Questa è solo una parte delle le conversazioni che il tecnico ha condiviso ad alcune persone di sua conoscenza tra cui un membro del Congresso statunitense.

Lo scopo era quello di dimostrare che aveva ragione e che LaMDA avesse la coscienza di un bambino di 7-10 anni. Immediata la sospensione dei capi. In seguito, il programmatore ha rilasciato interviste ad alcuni dei giornali più importanti di tutto il paese come "The Washington Post" accusando Google di aver messo in dubbio la sua sanità mentale e di averlo discriminato per motivi religiosi.

Google risponde alle accuse

Ma come risponde Google a tutte queste dichiarazioni? L'intelligenza artificiale è consapevole di sé? La risposta ufficiale è un chiaro e tondo NO. I modelli per l’elaborazione del linguaggio naturale sono realizzati servendosi di reti neurali artificiali che cercano di imitare il funzionamento del nostro cervello. Il cervello umano è naturalmente molto più complesso di una rete neurale.

Google sostiene inoltre che tutte le attività riguardanti sviluppi nel campo dell’intelligenza artificiale sono seguite da una sorta di comitato etico che ha il compito di valutare possibili implicazioni nello sviluppo di tecnologie. Il gruppo di lavoro ha revisionato le segnalazioni di Blake dichiarando di non avere riscontrato elementi a sostegno delle sue tesi.

Altri esperti sostengono che queste macchine sappiano generare delle parole ma questo non significa che sappiano pensare. Il materiale contenuto nei dialoghi tra l'operatore e il sistema fa capire che LaMDA è in grado di imitare perfettamente il funzionamento linguistico del cervello umano, ma al tempo stesso rimane non umano.

Seguici sui nostri canali