TikTok mierzy się z pozwem w sprawie szkodzenia zdrowiu psychicznemu młodych użytkowników. Upubliczniona została wewnętrzna komunikacja pracowników platformy, z której wynika, że firma była świadoma negatywnego wpływu aplikacji na nastolatków – donosi amerykańska organizacja medialna npr.org.
Jak informuje źródło, treść pozwu nie jest w całości znana – duża część informacji została utajniona ze względu na umowę o poufności zawartą z TikTokiem. Okazało się jednak, że część pozwu nie została odpowiednio zabezpieczona i na światło dzienne wypłynęły dodatkowe dane obciążające platformę.
Z ujawnionych informacji wynika, że TikTok miał świadomość konsekwencji kompulsywnego korzystania z platformy, które odbija się na zdrowiu psychicznym nastolatków oraz ich codziennym funkcjonowaniu – czytamy.
Poufny materiał jest częścią ponad dwuletniego śledztwa w sprawie TikToka prowadzonego przez 14 prokuratorów generalnych, które doprowadziło do pozwania firmy przez urzędników stanowych 8 października 2024 roku. Zarzuca się w nim platformie, że ma ona negatywny wpływ na zdrowie psychiczne młodych ludzi, w tym prowadzi do uzależnień.
Czytaj więcej: TikTok szkodzi zdrowiu psychicznemu dzieci? Serwis został pozwany – PRoto.pl
Jak donosi npr.org, z upublicznionych części pozwu wynika, że TikTok zdawał sobie sprawę z zagrożeń płynących z korzystania z aplikacji przez nieletnich. Ujawnione materiały, które w większości stanowią podsumowania wewnętrznych badań i komunikacji kierownictwa platformy, wyraźnie pokazują, że niektóre środki zaradcze wprowadzane przez TikToka nie przynosiły efektów, a mimo to platforma oficjalnie prowadziła komunikację, w której zachwalała skuteczność wprowadzanych rozwiązań.
TikTok był świadomy uzależniającego wpływu aplikacji
Jak czytamy, z upublicznionych rozmów wewnętrznych wynika, że TikTok był świadomy tego, że jego spersonalizowany algorytm może prowadzić do uzależnień. Okazuje się, że serwis społecznościowy określił nawet dokładną liczbę wyświetleń filmów, jaka jest potrzebna, aby ktoś wyrobił sobie nawyk korzystania z aplikacji.
260 filmów obejrzanych na TikToku sprawi, że użytkownik „prawdopodobnie uzależni się od platformy” – wynika z ujawnionych rozmów wewnętrznych cytowanych przez źródło. Biorąc pod uwagę długość wideo zamieszczanych na platformie oraz odtwarzanie ich w zapętleniu, okazuje się, że przeciętny użytkownik już nawet w mniej niż 35 minut może uzależnić się od korzystania z aplikacji.
Jak donosi źródło, jeszcze inne wewnętrzne dokumenty platformy ujawniają, że firma z pełną świadomością dopuściła do użytku wiele funkcji, które celowo zostały tak zaprojektowane, aby przyciągnąć uwagę i zatrzymać nastolatków. Wewnętrzne szacunki TikToka ujawniają, że 95 proc. użytkowników smartfonów poniżej 17 roku życia korzysta z platformy. Ponadto w ujawnionych rozmowach pojawia się stwierdzenie, które sugeruje, że działania wpływające na zwiększenie zaangażowania wśród dzieci były w pełni celowe: „zgodnie z oczekiwaniami, z większości wskaźników zaangażowania wynika, że im młodszy użytkownik, tym lepsza wydajność” – czytamy w cytowany przez źródło dokumencie TikToka z 2019 roku.
Nieocenzurowane treści pozwu ujawniają też, że pracownicy platformy byli świadomi, że udostępniane narzędzia kontroli rodzicielskiej czy też nakładane limity czasowe nie są skuteczne. Wewnętrzne dokumenty pokazują, że TikTok mierzył sukces tych narzędzi na podstawie tego, jak „poprawiło ono zaufanie publiczne wobec platformy”, a nie na ile realnie skróciło czas spędzany przez nastolatków w aplikacji – donosi npr.org.
Podobnie rzecz miała się ze świadomością braku skuteczności narzędzi mających przeciwdziałać ryzyku depresji oraz promowaniu treści negatywnie wpływających na postrzeganie własnego ciała. TikTok wiedział, jak mało prawdopodobne jest, że oferowane narzędzia okażą się skuteczne. „Młode osoby nie mają funkcji regulujących, które pozwoliłyby im kontrolować czas spędzany przed ekranem” – czytamy w wewnętrznym dokumencie TikToka cytowanym przez źródło.
Za moderację treści potencjalnie szkodliwych dla młodych użytkowników odpowiada… sztuczna inteligencja
Okazuje się, że na TikToku – mimo informacji o wieloetapowej moderacji treści – wciąż pojawiały się treści związane z samookaleczeniem, zaburzeniami odżywiania czy innymi niebezpiecznymi praktykami. Powodem tego miał być fakt, że za pierwszy etap weryfikacji treści odpowiedzialna jest sztuczna inteligencja, a nie osoby z zespołu – czytamy.
Jak wynika z ujawnionych danych pracownicy weryfikują treści dopiero wtedy, gdy film będzie miał określoną liczbę liczbę wyświetleń. Jedno z wewnętrznych badań wykazało, że filmy dotyczące samookaleczania oglądane były nawet 75 tys. razy, zanim TikTok usunął je z platformy – donosi źródło.
Ponadto okazuje się, że firma zdawała sobie sprawę, że osoby poniżej 13 roku życia mają konta na platformie, ale niewiele robiła, aby je usunąć, lub celowo spowalniała działania moderatorów, nakazując im „ostrożność w usuwaniu kont zgłaszanych jako te należące do nieletnich” – czytamy.
Npr.org ujawnia też, że w upublicznionych dokumentach znalazły się informacje na temat wielu nieprawidłowości w prowadzonych wewnętrznie śledztwach w sprawach dotyczących m.in. wysyłania przez dorosłych treści o charakterze seksualnym do nieletnich.
Jak czytamy, w komunikacji wewnętrznej pracowników serwisu pojawiły się również wskaźniki liczbowe treści naruszających prawo, które nie były usuwane z platformy. Wskaźniki obejmują m.in. treści związane z pedofilią (35,71 proc.), nagabywaniem seksualnym (33,33 proc.), znęcaniem fizycznym (39,13 proc.) czy seksualizacją lub fetyszowaniem nieletnich (100 proc.).
W oświadczeniu cytowanym przez źródło rzecznik TikToka Alex Haurek podkreślał jednak, że firma nieustannie stara się zapewniać bezpieczeństwo młodym użytkownikom, a publikowanie informacji „które są opieczętowane sądowo, jest wysoce nieodpowiedzialne ze strony NPR”. „Niestety ujawniona treść skargi wybiórczo prezentuje wprowadzające w błąd cytaty wyrwane z kontekstu” – bronił platformy. (kn)
Źródło: npr.org, TikTok executives know about app’s effect on teens, lawsuit documents allege, Bobby Allyn, Sylvia Goodman, Daria Kerr, 11.10.2024