Minori e social, il Parlamento Europeo chiede di fissare l'età minima a 16 anni
Con 483 voti favorevoli, 92 contrari e 86 astensioni, giovedì scorso il Parlamento Europeo ha approvato una risoluzione non vincolante che esprime preoccupazioni per la salute fisica e mentale dei minori esposti ai social media e alle piattaforme digitali.

Il testo chiede un'applicazione più rigorosa del regolamento sui servizi digitali (Digital Services Act) e propone misure concrete per limitare l'accesso e contrastare meccanismi che favoriscono la dipendenza, in risposta a un contesto in cui il 97% dei giovani europei utilizza Internet quotidianamente e il 78% dei ragazzi tra i 13 e i 17 anni controlla i dispositivi almeno ogni ora.
La proposta del Parlamento UE stabilisce a 16 anni il limite minimo di età nell'Unione Europea per l'accesso a social network, piattaforme di condivisione video e compagni virtuali basati su intelligenza artificiale, inclusi chatbot e agenti di IA generativa.
Per i minori tra i 13 e i 16 anni è prevista un'eccezione con autorizzazione esplicita dei genitori o tutori, al fine di bilanciare protezione e opportunità educative digitali. I deputati accolgono favorevolmente gli sforzi della Commissione Europea per sviluppare un'app comune per l’UE per la verifica dell'età, integrata con il portafoglio europeo di identità digitale (eID), ma sottolineano che tali strumenti devono garantire accuratezza, rispetto della privacy e sicurezza informatica, senza esonerare le piattaforme dalla responsabilità primaria di offrire ambienti sicuri per i minori.
Le motivazioni affondano in dati preoccupanti emersi dall'Eurobarometro 2025, che indicano come oltre il 90% degli europei consideri urgente un intervento: il 93% cita l'impatto negativo dei social sulla salute mentale, il 92% il bullismo online e lo stesso 92% la mancanza di filtri efficaci per contenuti inadatti.
Uno studio del Servizio Ricerca del Parlamento UE evidenzia che un minore su quattro presenta un uso "problematico" o "disfunzionale" dello smartphone, con comportamenti simili a una dipendenza, aggravati da strategie di design come lo scrolling infinito, la riproduzione automatica dei video e meccanismi di gamification che stimolano il rilascio di dopamina.
La relatrice del Parlamento europeo, Christel Schaldemose, ha commentato: «Siamo orgogliosi di unirci per proteggere i minori online. Con il Digital Services Act applicato rigorosamente, queste misure innalzeranno il livello di tutela. Diciamo alle piattaforme: i vostri servizi non sono pensati per i minori, questo esperimento finisce qui».
Oltre al limite di età, la risoluzione introduce divieti specifici per pratiche considerate dannose: le piattaforme devono disattivare per default funzioni come l'aggiornamento tramite trascinamento, i cicli di ricompensa e le notifiche push «manipolative», optando invece per algoritmi di raccomandazione basati su criteri educativi e di benessere.

Si chiede di estendere le norme del Digital Services Act alle piattaforme di videogiochi online, vietando loot box, valute interne, ruote della fortuna e meccanismi pay-to-progress che incoraggiano spese impulsive. Ulteriori tutele riguardano lo sfruttamento commerciale: divieto di incentivi finanziari per bambini influencer e contrasto a pubblicità mirata e tecnologie persuasive, in linea con la proposta di legge sull'equità digitale.
Il Parlamento sollecita la Commissione a vietare siti web non conformi alle norme UE e a imporre sanzioni più severe, inclusa la possibilità di interdizione per piattaforme recidive, con responsabilità personale per i dirigenti senior in caso di violazioni gravi, specialmente sulla verifica dell'età e la protezione dei minori.
Fonte: Parlamento Europeo






