Ofcom, brytyjski organ nadzorujący media, przeprowadził badania, które pokazują, że brutalne treści w internecie są obecnie „nieuniknione” dla dzieci w Wielkiej Brytanii. Ponadto, wiele z nich po raz pierwszy miało z nimi styczność w szkole podstawowej – podaje theguardian.com.
Każde brytyjskie dziecko, z którym Ofcom przeprowadził wywiad, oglądało brutalne materiały w internecie – od filmów z lokalnych walk szkolnych i ulicznych, po ekstremalną przemoc i treści związane z gangami – czytamy.
Jak podaje źródło, dzieci były świadome, że jeszcze bardziej szkodliwe materiały można znaleźć w głębszych zakamarkach sieci. Nie zdecydowały się jednak na to, aby ich samodzielnie szukać.
Wyniki badań skłoniły NSPCC, brytyjską organizację charytatywną zajmującą się ochroną dzieci, do oskarżenia platform technologicznych o brak reakcji i „ignorowanie obowiązku opieki nad młodymi użytkownikami”. Jak zaznaczył Rani Govender, starszy specjalista ds. polityki bezpieczeństwa dzieci w internecie, „to głęboko niepokojące, że dzieci mówią nam, że bycie nieumyślnie narażonym na brutalne treści stało się normalną częścią ich życia online” – czytamy.
„To niedopuszczalne, że algorytmy nadal podsuwają szkodliwe treści, o których wiemy, że mogą mieć niszczycielskie konsekwencje psychiczne i emocjonalne dla młodych ludzi” – dodał Govender.
Badania są częścią działań Ofcom w ramach obowiązków wynikających z ustawy o bezpieczeństwie online, która została uchwalona w 2023 roku. Dała ona regulatorowi uprawnienia do rozprawienia się z serwisami społecznościowymi, które nie chronią swoich użytkowników, zwłaszcza dzieci – dowiadujemy się.
„Dzieci nie powinny czuć, że poważnie szkodliwe treści – w tym materiały przedstawiające przemoc lub promujące samookaleczenia – są nieuniknioną częścią ich życia online. Dzisiejsze badania wysyłają silny sygnał do firm technologicznych, że teraz jest czas na działanie, aby były gotowe do wypełnienia swoich obowiązków w zakresie ochrony dzieci zgodnie z nowymi przepisami dotyczącymi bezpieczeństwa w internecie” – powiedziała Gill Whitehead, dyrektorka grupy ds. bezpieczeństwa online w Ofcom, cytowana przez źródło.
Najczęściej wymienianymi przez nieletnich firmami technologicznymi były m.in. Snapchat, Instagram oraz WhatsApp. Według raportu, „dzieci wyjaśniły, w jaki sposób istniały prywatne, często anonimowe konta, działające wyłącznie w celu udostępniania brutalnych treści – najczęściej lokalnych walk szkolnych i ulicznych. Prawie wszystkie dzieci z tego badania, które weszły w interakcję z tymi kontami, zgłosiły, że zostały one znalezione na Instagramie lub Snapchacie” – czytamy.
Jedna z badanych jedenastolatek wspomniała, że „istnieje presja rówieśników, by udawać, że to zabawne”. Jak dodała dziewczynka, „w środku czujesz się nieswojo, ale na zewnątrz udajesz, że to zabawne” – pisze theguardian.com.
Niektóre platformy społecznościowe zapewniają narzędzia pomagające dzieciom unikać brutalnych treści. Młodzi użytkownicy przekazali jednak badaczom, że za każdym razem, gdy chcą zgłosić daną treść, obawiają się, że system nie zadziała. W przypadku prywatnych czatów powstrzymywała ich myśl, że raportowanie oznaczy ich jako „donosicieli”, co doprowadzi do kary od rówieśników. Badane dzieci nie wierzyły także, że serwisy będą wyciągać jakiekolwiek konsekwencje od użytkowników, którzy publikowali brutalne treści – informuje źródło.
Rzecznik Snapchata przekazał, że w aplikacji „nie ma miejsca na treści zawierające przemoc lub groźby”. „Kiedy znajdujemy tego typu treści, szybko je usuwamy i podejmujemy odpowiednie działania na koncie sprawcy” – dodał.
Jak podaje źródło, skontaktowano się z Metą w celu uzyskania komentarza. X odmówił odniesienia się do sprawy. (ao)