La Commissione UE chiede a TikTok spiegazione sulla protezione della salute mentale dei minori

È una delle dirette conseguenze della diffusione di contenuti estremamente sensibili e violenti che spesso attraversano la piattaforma

17/11/2023 di Gianmichele Laino

Sono tempi difficili per la diffusione dei contenuti sulle piattaforme digitali. Lo sono perché la realtà che ci circonda, di cui queste piattaforme sono specchio fedele, è piena di violenza e di confusione dal punto di vista informativo. Se ci sono guerre in Ucraina e nella Striscia di Gaza, è inevitabile che le immagini di questi conflitti (a volte anche decontestualizzate, cosa ancora più grave perché non rispondono nemmeno a esigenze di natura informativa) possano finire sui media più pervasivi della nostra era, ovvero le piattaforme di social networking. Non è un caso, ad esempio, che alcuni di questi contenuti violenti siano finiti anche su TikTok. E – in virtù di questo – la Commissione Europea ha avviato un dialogo molto serrato con la piattaforma made in ByteDance per poter escludere rischi sulla tenuta della salute mentale dei minori che la utilizzano.

LEGGI ANCHE > TikTok ha presentato ricorso contro il Digital Markets Act

Salute mentale dei minori su TikTok, l’esposto della Commissione europea

Un precedente c’era stato a ottobre. La Commissione Europea aveva chiesto a TikTok di condividere informazioni circa contenuti terroristici e violenti e di incitamento all’odio, sulla presunta diffusione della disinformazione e su aspetti generali relativi alla tutela dei minori online. Adesso, è arrivato un nuovo richiamo formale (che, questa volta, TikTok ha condiviso anche con YouTube): la Commissione vuole maggiori informazioni sull’uso dei servizi di TikTok e di YouTube da parte dei minori e sulle misure adottate per adempiere agli obblighi in materia di tutela dei minori previste dal DSA. Tra queste, ovviamente, ci sono quelle che tutelano la loro salute mentale.

Si ricorda, a titolo informativo, che l’età minima per avere accesso a TikTok è di 13 anni, ma che molte funzionalità (tra cui quella di ricevere dei messaggi in direct) possono essere sbloccate soltanto a partire dai 16 anni. Si tratta di limiti di utilizzo che sono in linea rispetto a quanto richiesto alle piattaforme: tuttavia, le istituzioni europee vogliono assicurarsi che, nell’adottare questi limiti d’età, le piattaforme riescano a monitorare la tipologia di contenuti che ha il potenziale per raggiungere i minori.

Dunque, TikTok e YouTube hanno tempo fino al 30 novembre per rispondere alle richieste della Commissione Europea e, in caso di violazioni accertate, potranno anche essere bersaglio di azioni messe in atto dalle istituzioni europee nei loro confronti. Due rapporti di Amnesty International estremamente recenti hanno evidenziato come alcuni contenuti violenti possono in qualche modo influire sulla tenuta mentale e psicologica dei minori. Lisa Dittmer, la ricercatrice di Amnesty che ha avuto un ruolo in questo processo di indagine, ha affermato: «I risultati delle indagini denunciano le prassi manipolative e che creano dipendenza di TikTok, studiate per coinvolgere gli utenti il più a lungo possibile. Il sistema di algoritmi che raccomanda contenuti, considerato l’artefice del rapido successo della piattaforma, espone bambini e giovani che hanno preesistenti problemi di salute mentale a gravi rischi». Da qui, dunque, la necessità di un’indagine, da parte delle istituzioni europee, di monitorare in maniera più approfondita quello che sta avvenendo sulle piattaforme e di ottenere delle risposte non circostanziali.

Share this article
TAGS