Cosa fanno i social per proteggere i minori
venerdì 20 settembre 2024
Quando parliamo di social siamo tutti d’accordo che occorrono misure che proteggano i minori. Già, ma cosa fanno in concreto i social per proteggerli? Partiamo da WhatsApp, che per molti non è un social ma che di fatto non solo lo è ma è pure il più utilizzato anche in Italia. Fino allo scorso aprile per aprire un profilo in Italia occorreva avere almeno 16 anni. Era così dal 2018 quando il Regolamento generale sulla protezione dei dati varato dall’Europa aveva elevato l’età minima per iscriversi dai 13 anni ai 16 anni. Tutto questo fino allo scorso aprile, quando WhatsApp ha abbassato l’età di iscrizione ai 13 anni, dicendo (cosa che suona come una beffa) che il cambiamento è stato deciso per uniformare il limite a quello esistente nel resto del mondo (dove il limite è 13 anni) e adeguarsi a due nuovi regolamenti europei, il Digital Markets Act (Dma) e il Digital Services Act (Dsa). E la protezione dei minori? Resta molto fumosa. E la responsabilità della tutela de più giovani viene spostata dalla piattaforma ai genitori, che vengono persino sollecitati a insegnare ai figli come usare WhatsApp in maniera responsabile (seconda beffa). Andiamo avanti. Quanto sia popolare TikTok tra i giovanissimi non è un mistero. Altrettanto chiaro a tutti è quanto la piattaforma non sia spesso adatta ai minori. Per loro il social cinese ha creato per esempio la modalità limitata che li protegge da contenuti e temi sensibili, ma anche dai messaggi diretti di altri utenti. La cosa più importante è il «Collegamento familiare di TikTok» che «consente a mamme, papà e tutori di personalizzare le impostazioni di sicurezza dei profili dei figli». In pratica un genitore (o il tutore) può associare il proprio account di TikTok a quello del figlio e impostare controlli sul tempo di uso giornaliero dei minori, sulle notifiche e sui video che potrebbero vedere, scegliendo quali termini o quali hashtag evitare. A rivaleggiare con la popolarità di TikTok almeno in Europa c’è Instagram. Pochi giorni fa la piattaforma di Meta (che possiede anche WhatsApp e Facebook) ha varato nuove linee guida per gli under 16. Le principali novità sono sette. 1) Gli account degli utenti sotto i 16 anni saranno automaticamente privati. Per cambiare queste impostazioni gli adolescenti avranno bisogno del permesso dei genitori. 2) Gli under 16 potranno ricevere messaggi solo da persone che seguono o con cui hanno già interagito in passato.
3) Saranno soggetti a impostazioni di contenuto più restrittive. 4) I genitori potranno vedere con chi i loro figli stanno interagendo, senza però avere accesso al contenuto dei messaggi. 5) I genitori potranno gestire le impostazioni Instagram dei loro figli e monitorare i temi che i loro figli stanno esplorando. 6) Gli adolescenti riceveranno un messaggio di avviso dopo aver utilizzato Instagram per 60 minuti al giorno. 7) Le notifiche saranno disattivate automaticamente tra le 22 e le 7. Non è molto ma è già qualcosa. Anche se tutto questo sposta di fatto la responsabilità sui genitori. Cosa buona e giusta, in teoria. Peccato che di fatto una larga fetta di genitori non sa e/o non vuole occuparsi della vita online dei propri figli. Così però le piattaforme si lavano (in parte o del tutto) la coscienza.
Il peggior social è Facebook (dove ci sono ancora minori, anche se la vulgata è che sia «solo dei vecchi»). Per la protezione dei minori ci sono solo indicazioni generiche sull’uso responsabile della piattaforma.
Una vera occasione (volutamente) sprecata. © riproduzione riservata
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: