TikTok propone ai giovani contenuti che possono nuocere alla loro salute mentale. © Suki Law
TikTok propone ai giovani contenuti che possono nuocere alla loro salute mentale. © Suki Law

Mondo TikTok spinge i giovani verso contenuti dannosi per la salute mentale

Comunicato stampa, 7 novembre 2023, Londra/Lugano – Contatto media
Il sistema di raccomandazione dei contenuti di TikTok e le sue pratiche invasive di raccolta dei dati rappresentano un pericolo per i giovani utenti della piattaforma. Questo sistema amplifica i contenuti che riguardano depressione e suicidio, con il rischio di peggiorare i problemi di salute mentale esistenti, come dimostrano due rapporti complementari pubblicati oggi da Amnesty International.

I due rapporti - Driven into the Darkness: How TikTok Encourages Self-harmes and Suicidal Ideation e I Feel Exposed: Caught in TikTok's Surveillance Web - evidenziano gli abusi subiti dai bambini e dai giovani che utilizzano TikTok e i modi in cui questi sono causati dal sistema di raccomandazione di TikTok e dal modello commerciale sottostante.

I risultati di un'indagine tecnica congiunta con i nostri partner - l'Algorithmic Transparency Institute (ATI) presso la Conferenza nazionale sulla cittadinanza e l'AI Forensics - mostrano come i bambini e i giovani che guardano contenuti relativi alla salute mentale sulla pagina "Per te" di TikTok vengano rapidamente trascinati in "spirali" di contenuti potenzialmente dannosi, tra cui video che romanticizzano e incoraggiano pensieri depressivi, autolesionismo e suicidio.

"Le scoperte mettono in luce le pratiche di progettazione manipolative e di creazione di dipendenza adottate da TikTok, che sono progettate per mantenere gli utenti agganciati il più a lungo possibile. Dimostrano inoltre che il sistema di raccomandazione algoritmica dei contenuti della piattaforma, a cui si attribuisce il merito della rapida ascesa globale della stessa, espone bambini e giovani adulti con problemi di salute mentale preesistenti a seri rischi", ha dichiarato Lisa Dittmer, ricercatrice di Amnesty International.

Feed "Per te"

Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation descrive nei dettagli come l'incessante ricerca dell'attenzione dei giovani utenti da parte di TikTok rischi di esacerbare problemi di salute mentale come depressione, ansia e autolesionismo.

Il feed "Per te" di TikTok è una pagina altamente personalizzata e scorrevole all'infinito di contenuti raccomandati dall'algoritmo, scelti per riflettere quelli che il sistema ha dedotto essere gli interessi di un utente.

La ricerca tecnica è stata condotta utilizzando più di 30 account automatici creati per rappresentare tredicenni in Kenya e negli Stati Uniti al fine di misurare gli effetti del sistema di raccomandazione di TikTok su utenti giovani. Un'ulteriore simulazione eseguita manualmente ha coinvolto un account ciascuno in Kenya, nelle Filippine e negli Stati Uniti.

La ricerca tecnica ha rivelato che dopo 5-6 ore di permanenza sulla piattaforma TikTok, quasi un video su due era legato alla salute mentale e potenzialmente dannoso, ovvero circa 10 volte il quantitativo proposto ad account non interessati alla salute mentale.

L'effetto "spirale" è stato ancora più rapido quando i ricercatori hanno rivisto manualmente i video relativi alla salute mentale suggeriti ad account di ricerca che imitavano utenti di 13 anni in Kenya, Filippine e Stati Uniti.

A partire dai 3 ai 20 minuti dall'inizio della nostra ricerca manuale, più della metà dei video nel feed "Per te" erano legati a problemi di salute mentale, con più video che romanticizzavano, normalizzavano o incoraggiavano il suicidio consigliati in una sola ora.

Progettati per creare dipendenza

Discussioni di focus group, interviste e simulazioni di account TikTok di bambini in Kenya, nelle Filippine e negli Stati Uniti, oltre alle prove esistenti nell'ambito della ricerca sui danni dei social media e della salute pubblica, rivelano come la progettazione della piattaforma TikTok incoraggi l'uso malsano dell'app.  

*Luis, uno studente universitario di 21 anni di Manila a cui è stato diagnosticato un disturbo bipolare, ha raccontato ad Amnesty International la sua esperienza con il feed "Per te" di TikTok.

"È una spirale infernale perché tutto inizia con un solo video. Se un video riesce a catturare la tua attenzione, anche se non ti piace, ti viene segnalato la volta successiva che apri TikTok e, dato che ti sembra familiare, lo guardi di nuovo e la sua frequenza nel tuo feed aumenta esponenzialmente", ha detto Luis.

*Francis, uno studente di 18 anni della provincia di Batangas, nelle Filippine, ha osservato: "Quando guardo un video triste che mi fa sentire in sintonia, improvvisamente tutta la mia pagina 'Per te' è triste e sono in 'Sadtok'. Questo influisce sul mio stato d'animo".

Un'altra persona che ha partecipato al focus group ha spiegato: "I contenuti che vedo e che mi fanno rimuginare più di tutti sono per esempio i video in cui qualcuno è malato o fa un'autodiagnosi. Questo influisce sulla mia percezione, mi fa sentire come se avessi gli stessi sintomi e peggiora la mia ansia. E non li cerco nemmeno (i video), appaiono semplicemente nel mio feed".

*Joyce, una donna di 21 anni nelle Filippine, ha detto: " Ho cancellato [TikTok] per un po' di tempo perché ne ero molto dipendente... Trascorrevo così tante ore su TikTok solo a scorrere i video, perché non si può fare a meno di chiedersi che cosa ci sarà dopo quando si scorrerà verso il basso".

I bambini e i giovani intervistati in Kenya hanno dichiarato di ritenere che l'uso di TikTok influisse sui compiti scolastici, sui momenti di socialità con gli amici e li portasse a scorrere i loro feed fino a tarda notte, invece di dormire a sufficienza.

Queste testimonianze sono state confermate da diversi psicologi specializzati in adolescenza consultati da Amnesty International nell'ambito della ricerca.

Sebbene le risposte individuali dei giovani e i fattori contestuali che influenzano l'uso dei social media possano variare, come altre piattaforme di social media, TikTok ha fatto scelte di design/progettazione volte a massimizzare il tempo trascorso dagli utenti sulla piattaforma.

"La nostra ricerca mostra che TikTok può esporre i bambini e i giovani a gravi rischi per la salute se mantiene il proprio modello commerciale attuale, orientato più a tenere gli occhi dell'utenza incollati sulla piattaforma che a rispettare il diritto alla salute dei bambini e dei giovani", ha dichiarato Lisa Dittmer, ricercatrice di Amnesty International.

La rete della sorveglianza

"I feel exposed": Caught in TikTok's Surveillance Web mostra come le pratiche di raccolta dati di TikTok, che violano i diritti, siano alla base delle pratiche dannose di coinvolgimento degli utenti che, allo stesso tempo, sostengono.

La ricerca di Amnesty International dimostra che il modello di business di TikTok è intrinsecamente abusivo e privilegia l'impegno per tenere gli utenti attaccati alla piattaforma, al fine di raccogliere sempre più dati su di loro. TikTok utilizza poi questi dati per creare profili di utenti e trarre inferenze su di loro, consentendo così di raggruppare gli utenti in gruppi per inviare loro contenuti altamente personalizzati e tenerli agganciati. Questi gruppi e categorie sono resi disponibili anche agli inserzionisti, che possono così rivolgere annunci personalizzati agli utenti.

Nella misura in cui TikTok ha messo in atto politiche e pratiche per garantire un maggiore rispetto dei diritti dei bambini, queste differiscono da regione a regione, lasciando bambini e giovani di alcune parti del mondo più esposti alla raccolta di dati a scopo di sfruttamento che in altre.

"TikTok si rivolge agli utenti, compresi i bambini, con pratiche di raccolta dati più invasive in parti del mondo dove le leggi e i regolamenti locali tutelano meno i loro dati. Questo significa che i bambini che vivono in paesi con una regolamentazione debole, tra cui molti paesi della Maggioranza Globale, sono soggetti ai peggiori attacchi al loro diritto alla privacy", ha dichiarato Lauren Armistead, vicedirettrice del programma Amnesty Tech.

"TikTok deve rispettare i diritti di tutti i suoi utenti più giovani, non solo quelli europei, vietando tutte le pubblicità mirate rivolte ai minori di 18 anni a livello globale".

TikTok deve anche smettere di iper-personalizzare il feed "Per te" per impostazione predefinita, e lasciare invece che gli utenti scelgano attivamente quali interessi influenzano le loro raccomandazioni di contenuti in base al loro consenso informato e se vogliono un feed personalizzato.

Se da un lato Amnesty International invita TikTok a compiere questi passi urgenti verso un modello di business rispettoso dei diritti, dall'altro è necessaria una regolamentazione vincolante per proteggere e rispettare i diritti dei bambini e dei giovani.

Il modo migliore per proteggere i bambini dall'abuso dei loro dati personali online è che i governi vietino per legge tutte le pubblicità mirate basate sulla raccolta invasiva di dati personali.

Rispondendo ai nostri riscontri, TikTok ci ha indicato le sue Linee guida della comunità, che stabiliscono quali tipi di contenuti sono vietati e quindi, se segnalati o altrimenti identificati, rimossi dalla piattaforma. Queste includono il divieto di contenuti che "mostrano, promuovono o forniscono istruzioni sul suicidio e l'autolesionismo, e relative sfide, sfide, giochi e patti", "mostrano o promuovono bufale sul suicidio e l'autolesionismo" e "condividono piani di suicidio e autolesionismo".

TikTok ha dichiarato di essere in procinto di sviluppare un "processo di due diligence sui diritti umani a livello aziendale che includerà la conduzione di valutazioni periodiche dell'impatto sui diritti umani". L'azienda non ha fornito dettagli sui rischi specifici per i diritti umani dei bambini e dei giovani utenti che ha identificato. Il fatto che TikTok non disponga di un processo di due diligence sui diritti umani a livello aziendale è un chiaro fallimento della responsabilità dell'azienda di rispettare i diritti umani.

Il contesto

Entrambi i rapporti si aggiungono alle prove esplorate nei precedenti rapporti di ricerca di Amnesty International. Surveillance Giants: How the business model of Google and Facebook threatens human rights ha evidenziato come il modello di business di Facebook e Google sia intrinsecamente incompatibile con il diritto alla privacy e rappresenti una minaccia per una serie di altri diritti, tra cui la libertà di opinione e di espressione, la libertà di pensiero e il diritto all'uguaglianza e alla non discriminazione.

I rapporti di Amnesty International sul Myanmar: The social atrocity: Meta and the right to remedy for the Rohingya e Ethiopia: Meta’s failures contributed to abuses against Tigrayan community during conflict  in northern Ethiopia rivelano entrambi come il modello di business della piattaforma Facebook, basato sull'engagement, possa avere impatti devastanti attraverso l'amplificazione di contenuti estremi che incitano alla violenza, all'odio e alla discriminazione, contribuendo in ultima analisi a gravi violazioni e abusi dei diritti umani.

Insieme, questi rapporti contribuiscono alla crescente base di prove della campagna globale di Amnesty International per la responsabilità delle aziende e la riparazione delle violazioni dei diritti umani associate al modello di business basato sulla sorveglianza di Meta, Google, TikTok e altre piattaforme "Big Tech".