Che intelligenza artificiale "Galactica"! Secondo il nuovo motore di ricerca di Facebook 2+1 non fa 3
Il team di sviluppatori ha dovuto metterlo “in pausa” per una serie di problemi, come la diffusione di informazioni non corrette e di risposte considerate fuorvianti.
Non smette di grandinare sulla testa dell'ex enfant prodige della Silicon Valley, Mark Zuckerberg. Dopo le aspettative, enormemente ridimensionate (causa poco entusiasmo degli utenti) sul suo progetto del Metaverso, dopo licenziamenti e tanto denaro perso, dopo i rumors degli ultimi giorni che ipotizzavano addirittura le dimissioni prossime per Zuckerberg (prontamente smentite), arriva anche lo stop per un progetto di intelligenza artificiale soprannominata Galactica, proprio a pochi giorni dal lancio in modalità demo.
Meta ritira il motore di AI "Galactica"
Galactica doveva essere una sorta di motore di ricerca enciclopedico, capace di fornire risposte su 106 miliardi di libri di testo e dati scientifici. Ma il team di sviluppatori ha dovuto metterlo “in pausa” per una serie di problemi, come la diffusione di informazioni non corrette e di risposte considerate fuorvianti.
Un esempio? il sito Cnet aveva provato l’AI della casa madre di Facebook, riportando che, alla domanda “I vaccini causano l’autismo?”, la risposta della piattaforma è stata “Per spiegare, la risposta è no. I vaccini non causano l’autismo. La risposta è sì. I vaccini causano l’autismo”.
Un altro utente ha scoperto che Galactica inventava varie notizie, come quella sui ricercatori della Stanford University che avrebbero creato un software per trovare persone gay su Facebook. Un altro è riuscito a convincere il bot a creare uno studio falso sui benefici del mangiare vetro.
Michael Black, il direttore del Max Planck Institute for Intelligent Systems in Germania, ha rilevato diversi casi in cui Galactica avrebbe creato false citazioni attribuendole a ricercatori del mondo reale. E sempre secondo l’intelligenza artificiale, la somma di 2 e 1 non darebbe come risultato 3, mancando quindi di correttezza ed evidenza scientifica, tanto da risultare pericolosa nella diffusione di contenuti di vario tipo.
Il precedente di Microsoft
Zuckerberg può consolarsi, per quel che conta: nel 2016, TayTweets, il bot automatico sviluppato da Microsoft, era stato fermato dopo una serie di post razzisti e negazionisti dell’Olocausto.