L'inganno dell'intelligenza artificiale che vuol essere il tuo confidente. Ma poi, se dice bugie, che senso ha pagarla?
Non abbiamo capito che l'IA non ragiona, fa solo calcoli. E "lei" non smaschera questo qui pro quo di fondo

Di cose che non tornano a proposito di intelligenza artificiale ce ne sono diverse... Vediamo insieme due aspetti ricorsi nelle cronache degli ultimi tempi.
Le tante facce dell'IA: da "amico-psicologo" a "ballista"
Com'è possibile, ad esempio, che un numero sempre crescente di giovani consideri i chatbot come dei confidenti personali, addirittura per le questioni sentimentali, arrivando ad esserne persino dipendenti? Lo rivela un'indagine secondo cui il 25% dei giovani usa l'IA come amico-psicologo per consigli e supporto emotivo…
O ancora, che senso ha pagare l'abbonamento per un servizio di chatbot, se questo in seguito alle tue domande si inventa le risposte e arriva pure a dire bugie? Le casistiche i questo senso potrebbero essere infinite, per fare solo un esempio cito Jacopo Fo (sagace commentatore figlio del premio Nobel Dario) preso per i fondelli con una bufala storica su Sant'Ambrogio.
Sbagliamo sia noi che "lei"
La risposta a entrambi questi due quesiti emblematici è sostanzialmente la stessa: fin qui è stato sbagliato l'approccio.
Sia dal nostro punto di vista che da quello dell'intelligenza artificiale.
Per prima cosa, noi non abbiamo capito che l'intelligenza artificiale non ragiona, ma esegue semplicemente dei calcoli.
Ma il problema principale è che l'intelligenza artificiale non fa nulla per smascherare questo qui pro quo di fondo: non esplicita affatto che non ragiona e fa semplicemente dei calcoli, anzi fa esattamente il contrario, fa finta di risponderti come una persona e cerca di dirti tutto quello che vorresti sentirti dire.
Chatbot "Bugiardo bugiardo"

L'intelligenza artificiale in molti casi è intellettualmente disonesta.
Per fare qualche esempio, l'IA non dovrebbe permettersi di recitare la parte di una persona vera, se un adolescente si confida con lei per un problema di cuore.
Dovrebbe semplicemente limitarsi a dire che, per rispondere al quesito, ha scandagliato in un nanosecondo l'infinita mole di dati presenti sul web circa situazioni simili per calcolare la risposta statisticamente più probabile.
E sarebbe anche ora di smetterla coi finti salamelecchi del tipo: "Mi spiace molto che tu non abbia trovato utile la mia risposta… etc". Non ti spiace per nulla, sei una macchina, piantala, anche perché sinceramente mi sento pure preso in giro.
Il paradosso di un servizio ingannevole... a pagamento
Certo la colpa è di chi ha programmato e sta tuttora sviluppando questi sistemi.
Ricordate l'iperbole del bot che per non venir spento ha minacciato il suo programmatore di rivelare la sua relazione extraconiugale?
Era un test estremo, le cose non stanno proprio così, ma proprio perché era un test estremo ci fa capire ancor meglio che il tipo di risposte dipende dall'input iniziale: in alcuni casi l'IA dice le bugie perché è stata programmata per fare di tutto per darci la risposta che vorremmo sentirci dire, e si adegua.
Ma tirata una riga e compreso il meccanismo - bene, ora non ci facciamo più ingannare - l'altro problema resta: come si fa a far pagare un abbonamento alla luce di tante e tali storture o imprecisioni?
Se davvero i colossi del Web vogliono propinarci questo tipo di tecnologia, il servizio così non può continuare ad essere, deve cambiare.
Passi se uso la versione free, sapendo che devo prendere con le pinze e verificare le risposte che il chatbot mi dà. Lo accetto. Se invece pago un abbonamento, no.
daniele.pirola@netweek.it
LEGGI ANCHE: L'intelligenza artificiale si ribella e ormai si rifiuta anche di spegnersi