Nye Amnesty-rapporter: TikTok eksponerer barn og unge for skadelig innhold

TikToks algoritmer gjør at innhold om selvskading og selvmord dyttes lenger opp i feeden til sårbare barn og unge. Det viser Amnestys nyeste research.
Publisert: 6. nov 2023, kl. 14:23 | Sist oppdatert: 7. nov 2023, kl. 08:08

– Vår research viser at TikTok er et risikabelt sted å være for unge som sliter med angst, depresjon og selvskading. Barn og unge som viser interesse for innhold om psykisk helse, får etter få timer feeden fylt opp av innhold om selvskading og selvmord. Dette må TikTok ta ansvar for og gjøre noe med, sier Ingrid Stolpestad, kampanjesjef i Amnesty International Norge.

I rapportene «Drevet inn i mørket: Hvordan TikTok oppmuntrer til selvskading og selvmordstanker» og «Jeg føler meg avslørt: Fanget i TikToks overvåkningsnett» - dokumenterer Amnesty hvordan TikToks anbefalingssystem og underliggende forretningsmodell utgjør en fare for unge brukere.

Les begge rapportene i sin helhet nederst i saken.

Unge blir påvirket

– Når jeg ser en trist video som jeg kan relatere til, blir plutselig hele 'For You'-siden min trist, og jeg er i 'Sadtok'. Det påvirker hvordan jeg føler meg, forteller Francis, en 18 år gammel student i Batangas Province i Filippinene.

Han er en av flere ungdommer i Filippinene, Kenya og USA som har blitt intervjuet i forbindelse med de ulike undersøkelsene Amnesty har gjort.

Forklaringen på Francis' opplevelse av appen får vi i rapporten «Jeg føler meg utsatt: Fanget i TikToks overvåkningsnettverk». Der kommer det frem hvordan TikToks praksis med å samle data bryter med brukernes rettigheter da de både støtter opp og opprettholdes av skadelige brukerengasjementpraksiser.

Omfattende etterforskning

Det er Algorithmic Transparency Institute (ATI) og National Conference on Citizenship and AI Forensics som sammen med Amnesty har stått bak den tekniske undersøkelsen av den populære appen Tiktok.

I tillegg til gruppesamtalene og intervjuer med barn og unge, inkluderer etterforskningen opprettelsen av mer enn tretti automatiserte kontoer som representerte 13-åringer i Kenya og USA, for å måle effektene av TikToks anbefalingssystem på unge brukere.

Romantisering av selvmord

Den tekniske etterforskning viser at etter 5–6 timer på plattformen, var nesten halvparten av videoene i feeden til unge som hadde vist interesse for innhold om mental helse, psykisk helse-relatert og potensielt skadelige. Dette var nesten ti ganger mengden tilsvarende videoer for kontoer som ikke hadde vist interesse for mental helse.

Denne såkalte kaninhull-effekten gikk enda raskere når våre etterforskere manuelt gikk inn og så på anbefalte videoer.

Etter mellom 3 og 20 minutter var mer enn halvparten av innholdet relatert til psykisk helse-utfordringer, med en rekke videoer som romantiserte, normaliserte eller oppmuntret til selvmord mindre enn en time etter oppsett av testkontoene.

TikToks forretningsmodell er i seg selv problematisk da den prioriterer engasjement som gjør det vanskeligere for brukere å logge av. Dette er for å kunne samle inn stadig mer personlig data om brukerne.

Kritikkverdig

Amnesty etterforskning viser at TikToks forretningsmodell i seg selv er rettighetsstridig og prioriterer engasjement for å holde brukere hektet på plattformen for å samle stadig mer data om dem.

TikTok bruker også kun beskyttelsestiltak i visse deler av verden og dermed blir noen barn og unge enda mer utsatt for utnyttende datainnsamling enn andre.

Amnesty oppfordrer derfor TikTok til å slutte med hyperpersonalisering av 'For You'-siden og i stedet la brukerne aktivt velge hvilke interesser som skal forme anbefalingene for innhold basert på deres informerte samtykke og hvis de ønsker en tilpasset feed.

Det er også et behov for bindende regulering for å beskytte og oppfylle barn og unges rettigheter.

Den beste måten å beskytte barn mot misbruk av deres personlige data på nett er at myndighetene vedtar lover som forbyr all målrettet reklame basert på inngripende innsamling av persondata.

Svar på tale

Som svar på Amnestys funn viser TikTok til sine retningslinjer som fastsetter hvilke typer innhold som er forbudt og derfor hvis det blir rapportert eller på annen måte identifisert fjernet fra plattformen.

Dette inkluderer et forbud mot innhold som «viser, fremmer eller gir instruksjoner om selvmord og selvskading, samt relaterte utfordringer, tørre, spill og avtaler», «viser eller fremmer selvmords- og selvskadingsspøker» og «deling av planer om selvmord og selvskading».

TikTok opplyste at de er i ferd med å utvikle en «selskapsomfattende prosess for menneskerettighetsvurderinger som vil inkludere gjennomføring av periodiske vurderinger av menneskerettighetspåvirkning».

Selskapet ga ikke detaljer om hvilke spesifikke risikoer for barn og unge brukeres menneskerettigheter de har identifisert. Det faktum at TikTok for øyeblikket ikke har en prosess for menneskerettslige aktsomhetsvurderinger er en tydelig svikt i selskapets ansvar for å respektere menneskerettighetene.

Last ned rapportene som PDFer her:

Kontaktinfo

Kommunikasjonsrådgiver Varin Hiwa: 401 60 071 / [email protected]