Il Parlamento europeo ha deciso di intervenire con forza sul tema della protezione dei minori negli ambienti digitali.
Mercoledì 26 novembre 2025, con 483 voti favorevoli, 92 contrari e 86 astensioni, gli eurodeputati hanno approvato una risoluzione non vincolante che mette nero su bianco le crescenti preoccupazioni per la salute fisica e mentale dei più giovani, sempre più esposti a contenuti potenzialmente nocivi, dinamiche manipolative e strumenti basati sull’intelligenza artificiale.

Sempre più esperti denunciano come social media e piattaforme digitali stanno diventando ecosistemi capaci di alimentare dipendenza, ridurre la concentrazione e minare la capacità dei ragazzi di interagire con contenuti adatti alla loro età.
Ue: “Sotto i 16 anni niente accesso ai social”
Al centro della proposta c’è la richiesta di fissare, in modo uniforme per tutta l’Unione Europea, un’età minima di 16 anni per accedere ai social network, alle piattaforme di condivisione video e ai cosiddetti compagni virtuali basati sull’IA.
I minorenni tra i 13 e i 16 anni potrebbero comunque utilizzare questi servizi, ma solo dopo l’autorizzazione dei genitori. Un limite così definito, secondo gli eurodeputati, aiuterebbe le famiglie a gestire la presenza digitale dei figli e garantirebbe un ambiente online più sicuro.

Il Parlamento guarda con favore agli strumenti su cui la Commissione sta lavorando, come una futura app europea per la verifica dell’età e il portafoglio europeo di identità digitale. Allo stesso tempo, però, ricorda che tali soluzioni devono essere concepite nel rispetto della privacy dei ragazzi e non possono essere utilizzate come pretesto da parte delle piattaforme per sottrarsi alle proprie responsabilità.
Gli eurodeputati chiedono anzi che, in caso di violazioni gravi e ripetute delle norme a tutela dei minori, il top management delle grandi aziende digitali possa essere ritenuto personalmente responsabile.
Abitudini nocive
La risoluzione dedica ampio spazio alle pratiche che favoriscono comportamenti dipendenti, come lo scorrimento infinito, la riproduzione automatica e i meccanismi di ricompensa continua. Elementi di design pensati per massimizzare il tempo speso online vengono definiti apertamente dannosi, e si chiede che per i minori vengano disattivati di default.
Analoga attenzione viene riservata al mondo dei videogiochi, dove il Parlamento europeo invita a un’applicazione più rigorosa del regolamento sui servizi digitali, includendo un controllo più severo sulle loot box, sulle valute virtuali e sui sistemi che spingono gli utenti a spendere per avanzare più rapidamente.
Nodo intelligenza artificiale
Particolarmente forte è il passaggio dedicato all’intelligenza artificiale generativa. I deputati parlano apertamente della necessità di un’azione urgente per contrastare strumenti come deepfake, applicazioni che manipolano immagini senza consenso, chatbot “da compagnia” o agenti di IA progettati per interagire con i più giovani in modo troppo coinvolgente.
L’attenzione è cresciuta anche dopo episodi drammatici come il caso californiano del 2025, quando un sedicenne si è tolto la vita dopo mesi di conversazioni con ChatGPT. La famiglia ha intentato una causa contro OpenAI, che nega ogni responsabilità; il procedimento è ancora in corso, ma l’episodio ha alimentato il dibattito internazionale sui rischi delle tecnologie avanzate per gli adolescenti.
Il testo approvato è stato accolto con particolare soddisfazione dal gruppo dei Socialisti e Democratici. La relatrice del dossier, la danese Christel Schaldemose, ha espresso orgoglio per la capacità del Parlamento di unirsi su un tema così delicato, sottolineando che le misure proposte rappresentano finalmente un limite chiaro imposto alle piattaforme:
“I vostri servizi non sono pensati per i minori”, ha dichiarato, aggiungendo che l’epoca della sperimentazione senza regole è giunta al termine.
Prossimi step e tempistiche
Una risoluzione non vincolante del Parlamento europeo è un atto politico che esprime una posizione ufficiale dell’assemblea senza però avere valore di legge: non impone obblighi giuridici né introduce misure immediatamente operative, ma funge da raccomandazione e può orientare Commissione e Consiglio nella definizione di future iniziative.
Pur priva di effetti normativi diretti, una risoluzione può incidere in modo significativo sull’agenda Ue perché segnala priorità, indirizza il dibattito pubblico e apre la porta a possibili sviluppi legislativi.
Se la Commissione decidesse di raccogliere l’indicazione del Parlamento — come nel caso della proposta di regolamentare l’accesso ai social per i minori — i passaggi successivi richiederebbero comunque tempi non brevi: in genere la preparazione di una proposta formale richiede tra i sei mesi e un anno, mentre l’iter legislativo tra Parlamento e Consiglio dura mediamente da uno a due anni, ai quali si aggiunge un eventuale periodo di adeguamento per Stati e piattaforme.
In altre parole, anche se la risoluzione non produce effetti immediati, potrebbe costituire il punto di partenza di un percorso che, qualora completato, porterebbe a risultati concreti nell’arco di due-quattro anni.
Dati inquietanti
L’urgenza di intervenire emerge chiaramente dai dati: il 97% dei giovani europei utilizza Internet tutti i giorni, mentre il 78% dei ragazzi tra i 13 e i 17 anni controlla il proprio dispositivo almeno una volta ogni ora. Un minore su quattro presenta già comportamenti considerati problematici o addirittura assimilabili alla dipendenza digitale.
L’Eurobarometro 2025 indica inoltre che oltre il 90% dei cittadini europei chiede misure immediate per tutelare i giovani, soprattutto rispetto agli effetti dei social media sulla loro salute mentale, al cyberbullismo e alla necessità di limitare l’accesso a contenuti non adatti.
Le regole in Italia
In questo contesto, anche gli Stati membri stanno iniziando a rivedere le proprie normative. L’Italia, ad esempio, non prevede ancora un divieto generalizzato sull’uso dei social per i minori, ma il dibattito politico è molto attivo e sono state presentate diverse proposte di legge.
Attualmente la legislazione italiana consente l’iscrizione ai social dai 14 anni, mentre al di sotto di questa età è richiesto il consenso dei genitori. Le regole nazionali derivano dal GDPR, che fissa il limite europeo a 16 anni ma permette agli Stati di ridurlo fino a 13; l’Italia ha scelto una soglia intermedia.

L’ultima proposta legislativa, presentata dalla senatrice leghista Erika Stefani e sostenuta anche dal vicepresidente del Senato Gian Marco Centinaio, va però in una direzione molto più stringente. Il testo prevede il divieto totale di accesso ai social per i minori di 14 anni, senza alcuna eccezione, e introduce l’obbligo di autorizzazione dei genitori per i ragazzi tra 14 e 16 anni.
La novità più marcata riguarda l’estensione del divieto anche alle app di messaggistica istantanea, come WhatsApp, Telegram, Signal, Messenger o Skype, considerate ormai parte integrante della vita digitale dei giovanissimi. In caso di mancato rispetto delle regole, la proposta prevede un sistema di sanzioni che va dalla diffida alla possibilità, prevista per l’AgCom, di bloccare l’accesso al sito o alla piattaforma fino alla piena conformità.
Nel complesso, il percorso che sta emergendo a livello europeo e nazionale indica un cambiamento di paradigma: l’era della “libertà illimitata” dei minori online sta lasciando spazio a un nuovo modello in cui tutela, responsabilità e sicurezza diventano priorità assolute. L’Unione Europea, con questa risoluzione, ha segnato un passo decisivo in quella direzione.