U ponad 140 kenijskich moderatorów Facebooka zdiagnozowano ciężki zespół stresu pourazowego spowodowany ekspozycją na drastyczne materiały w mediach społecznościowych. Wśród treści, które miały wpłynąć na pracowników były m.in. morderstwa, samobójstwa, wykorzystywanie seksualne dzieci czy terroryzm – donosi theguardian.com.
Moderatorzy pracujący w kenijskim oddziale przez nawet dziesięć godzin dziennie mieli styczność z treściami, które zostawiły trwały ślad na ich psychice. „Codziennie spotykali się z niezwykle drastycznymi materiałami, które przedstawiały morderstwa, samookaleczenia, samobójstwa, przemoc seksualną czy wykorzystywanie seksualne dzieci”. „Zdjęcia i filmy powodowały, że niektórzy pracownicy mdleli, wymiotowali, krzyczeli czy uciekli od swoich biurek” – ujawnia źródło.
Jak czytamy, u wszystkich 144 osób przebadanych przez psychiatrę stwierdzono zespół stresu pourazowego (PTSD) oraz silne zaburzenie depresyjne. Masowe diagnozy zostały postawione w ramach pozwu sądowego wniesionego przeciwko Mecie i Samasource Kenya, firmie zajmującej się moderowaniem treści dla Facebooka.
Prawie 190 moderatorów wniosło zarzuty przeciwko firmom. Wśród nich znalazły się m.in. umyślne wyrządzanie trwałego uszczerbku na zdrowiu psychicznym, nieuczciwe praktyki zatrudnienia i bezprawnego zwalniania pracowników czy nawet handel ludźmi. Co najmniej 40 moderatorów z tej grupy miało też problem z nadużywaniem alkoholu, narkotyków i leków. Niektórzy donosili o rozpadzie małżeństw i utracie więzi z rodziną. Z kolei pracownicy, których zadaniem było usuwanie filmów przesłanych przez grupy terrorystyczne i rebelianckie, zgłaszali, że towarzyszy im nieustanna obawa o to, że są obserwowani i w każdej chwili może im grozić niebezpieczeństwo – ujawnia źródło.
Sprawa rzuca światło na koszty, jakie ponosi człowiek z tytułu korzystania z social mediów. Szczególnie w ostatnich latach wzmożone korzystanie z platform społecznościowych i wielość niepożądanych treści tam udostępnianych wymusiły na platformach zwiększoną moderację, aby chronić użytkowników przed najbardziej drastycznymi materiałami. Facebook i inne duże serwisy zajmujące się mediami społecznościowymi i sztuczną inteligencją polegają na sztabie moderatorów treści, którzy usuwają posty naruszające ich standardy, a także szkolą w tym zakresie systemy AI – czytamy.
Jak podaje źródło, w Kenii zespół stresu pourazowego stwierdzono u 100 proc. byłych moderatorów przebadanych pod tym kątem. Jak podkreśla Martha Dark, założycielka brytyjskiej organizacji non-profit Foxglove, która poparła sprawę sądową przeciwko Mecie, „moderowanie treści to niebezpieczna praca, która powoduje trwały uszczerbek na zdrowiu psychicznym u prawie każdego, kto się tym zajmuje”.
Meta przekazuje, że poważnie traktuje wsparcie zatrudnianych moderatorów treści. Firma podkreśla, że umowy zawierane z zewnętrznymi pracownikami, którzy weryfikowali publikacje na Facebooku i Instagramie, szczegółowo opisują wytyczne dotyczące poradnictwa, szkoleń, całodobowego wsparcia psychologicznego na miejscu oraz dostępu do prywatnej opieki zdrowotnej. Ponadto w biurach stosowano rozwiązania mające na celu ograniczenie ekspozycji na drastyczne materiały – przekazuje źródło. (kn)
Źródło: theguardian.com, More than 140 Kenya Facebook moderators diagnosed with severe PTSD, Robert Booth, 18.12.2024