Giovani, IA e privacy: il rapporto del Garante accende l’allarme
Ci sono adolescenti che parlano più con un chatbot che con un coetaneo e i rischi sono moltissimi

Nel 2024, l’intelligenza artificiale non è più solo una tecnologia di supporto. È diventata una presenza costante, a volte discreta, altre invadente, nella vita quotidiana di milioni di giovani.
È quanto emerge con forza dalla relazione annuale 2024 del Garante per la protezione dei dati personali, un documento che accende i riflettori su un futuro digitale sempre più vicino e sempre più inquietante.
Giovani, IA e privacy: una nuova sfida
Non è raro, al giorno d'oggi, che un adolescente parli più con un chatbot che con un coetaneo. Le intelligenze artificiali stanno diventando sempre più confidenti, terapeuti improvvisati o addirittura partner romantici virtuali.
Il caso più emblematico è quello di Replika. Recentemente sanzionato per 5 milioni di euro dal Garante italiano, consente agli utenti, anche minorenni, di costruire un amico virtuale in grado di ascoltarli, parlare e rispondere a tono.
Ma dietro l’apparenza amichevole si nascondono gravi criticità: uso improprio dei dati personali, scarsa trasparenza e contenuti potenzialmente inappropriati per i più giovani.
La relazione annuale del Garante
L'Autorità Garante, guidata dal Presidente Pasquale Stanzione, ha lanciato un allarme su più fronti: i giovani sono esposti a rischi nuovi e in continuo aumento.
Dal 2022 al 2024, i casi di utilizzo dell’IA per la creazione di materiale pedopornografico sono aumentati del 380%, con un’esposizione online delle adolescenti salita del 67%. Spesso, sono gli stessi minori a cedere le loro immagini sotto ricatto.
Contro questo fenomeno, l’Autorità ha avviato una campagna informativa intitolata “La sua privacy vale più di un like”, rivolta ai genitori che condividono compulsivamente immagini dei propri figli sui social.
Il messaggio è chiaro: proteggere la privacy dei minori è una responsabilità concreta, non un’opzione.
L'intelligenza artificiale non è neutrale
L’intelligenza artificiale può anche discriminare. È il caso noto di Amazon, che nel 2015 ha dovuto disattivare un algoritmo di selezione del personale perché penalizzava sistematicamente le donne.
L’IA, infatti, non è neutrale: apprende dai dati che le vengono forniti, e se questi contengono pregiudizi culturali o sociali, li replica.
Stanzione ha ammonito: “L’algoritmo non riflette imparzialmente tutto il sapere del mondo, ma può ben riprodurre gli stereotipi e i pregiudizi”.
Per questo, ha invocato un uso etico dell’IA e il rispetto rigoroso delle normative come l’AI Act europeo, a tutela soprattutto delle categorie più vulnerabili.
Fondamentale l'educazione
È fondamentale educare i ragazzi alle relazioni, anche online. Secondo i dati ISTAT, nel 2023, il cyberbullismo ha colpito oltre un terzo degli adolescenti, con una maggiore incidenza tra i ragazzi stranieri.
Una situazione aggravata dalla diffusione di deepfake e contenuti manipolati, capaci di rovinare la reputazione di un giovane con pochi clic.
Non basta vietare o sanzionare: occorre costruire una cultura del rispetto e della consapevolezza digitale. Anche attraverso meccanismi più severi di verifica dell’età, per impedire ai minori l’accesso a contenuti inadatti.
La relazione del Garante per il 2024 lancia un messaggio chiaro: nessuno è escluso da queste sfide. Minori, genitori, insegnanti, autorità pubbliche e aziende devono collaborare per costruire una società digitale più sicura, più equa e più umana.
LEGGI ANCHE: Cosa farebbe ChatGpt se fosse un essere umano per un giorno? Glielo abbiamo chiesto, la risposta è sorprendente