Na platformie Netflix pojawił się niedawno film „Dylemat społeczny”, który opisywany jest jako połączenie dokumentu z dramatem. W produkcji wyreżyserowanej przez Jeffa Orlowskiego ukazane są „groźne” skutki wpływu mediów społecznościowych na cywilizację, które zauważają eksperci ds. technologi. Jak opisuje Netflix, w dokumencie przedstawiono „ukryte i szkodliwe” działania mediów społecznościowych, które stanowią „egzystencjalne zagrożenie dla ludzkości”. W filmie przedstawiono m.in., skąd biorą się popularne teorie spiskowe, problemy ze zdrowiem psychicznym nastolatków oraz szerząca się dezinformacja i polaryzacja polityczna. Przedstawiono w nim także wywiady z byłymi pracownikami firm technologicznych – m.in. Tristanem Harrisem, w przeszłości związanym z Google’em, Justinem Rosensteinem, współtwórcą facebookowego przycisku „Lubię to”, Timem Kendallem, byłym prezesem Pinteresta i byłym dyrektorem ds. monetyzacji w Facebooku, Cathy O’Neil, autorką książki „Weapons of Math Destruction”, czy Rashidą Richardson, Director of Policy Research w AI Now Institute – którzy opowiadają o wpływie social mediów na użytkowników.
Do filmu postanowił odnieść się Facebook, którego zdaniem w paru tematach Netflix popełnił błąd. „Powinniśmy rozmawiać o wpływie mediów społecznościowych na nasze życie. Ale »Dylemat społeczny« zagrzebuje ich istotę na rzecz sensacji. Zamiast oferować zniuansowane spojrzenie na technologię, daje zniekształcony obraz tego, jak działają social media, tworząc wygodnego kozła ofiarnego dla trudnych i złożonych problemów społecznych. Twórcy nie uwzględniają spostrzeżeń osób pracujących obecnie w firmach ani ekspertów, którzy mają inne spojrzenie niż narracja przedstawiona w filmie. Nie doceniają również – krytycznie lub w inny sposób – wysiłków już podjętych przez firmy w celu rozwiązania wielu poruszanych problemów. Zamiast tego opierają się na komentarzach tych, którzy nie byli w środku (branży – przyp. red.) od wielu lat” – opisuje Facebook w dokumencie zamieszczonym na stronie about.fb.com.
Jakie błędy zdaniem Facebooka popełnili twórcy „Dylematu społecznego”? Pierwszym z nich jest zarzut o uzależnianie użytkowników od portali społecznościowych. Jak tłumaczy firma, zadaniem zespołów odpowiadających za treści, jakie pojawiają się w news feedzie, nie jest celowe wydłużanie czasu, jaki internauci spędzają na przeglądaniu aktualności. Na potwierdzenie swoich słów, Facebook przypomina m.in. o nadaniu priorytetów dla treści w 2018 roku, dzięki czemu na górze strony głównej nie pojawiają się już np. wiralowe filmy. Czytamy, że ta zmiana spowodowała skrócenie czasu, jaki użytkownicy spędzają w serwisie, o 50 milionów godzin dziennie. Portal społecznościowy wspomina też o wprowadzeniu narzędzi do zarządzania czasem, dzięki którym można m.in. ograniczyć liczbę otrzymywanych powiadomień czy sprawdzać panel swojej aktywności.
Kolejnym punktem jest zarzut o wykorzystywanie danych użytkowników do utrzymywania firmy. Facebook tłumaczy, że choć reklamodawcy mają możliwość płatnego promowania się w serwisie, to dane internautów nie są dla nich dostępne – marki dostają informację o rodzajach osób, do których docierają reklamy, ale bez możliwości ich identyfikacji. Przy tej okazji serwis wspomina o wprowadzeniu zakładki „Preferencje reklamowe”, dzięki której można decydować o tym, jakie reklamy będą wyświetlane.
Następnym problemem, do jakiego odnosi się Facebook, jest działanie algorytmu, który w filmie opisywany jest jako „szalony”. Portal społecznościowy tłumaczy, że algorytm jest wykorzystywany, aby poprawić komfort korzystania z aplikacji – tak, jak robią to pozostałe platformy internetowe i sam Netflix, który za pomocą algorytmu określa, komu warto polecić dany film. Serwis wskazuje także, że wykorzystuje uczenie maszynowe do wyświetlania treści użytkownikom tak, aby te były dla nich interesujące. „Przedstawianie algorytmów jako »szalonych« może być dobrym materiałem do filmów dokumentalnych o spiskach, ale rzeczywistość jest o wiele mniej rozrywkowa” – komentuje Facebook.
Dalej Facebook porusza kwestię prywatności użytkowników. Czytamy, że serwis stale wprowadza zmiany dotyczące bezpieczeństwa danych – m.in. w ramach umowy z Federalną Komisją Handlu. Czytamy, że choć „Dylemat społeczny” sugeruje, że serwis pozwala wykorzystywać firmom zewnętrznym poufne informacje o internautach, to Facebook zabrania tego typu praktyk i namawia organy publiczne na całym świecie do wspólnego uregulowania przepisów w tym zakresie.
Facebook odnosi się także do obecności i zwiększania polaryzacji w mediach społecznościowych. Portal przekonuje, że stara się minimalizować rozprzestrzenianie się tego typu treści, choć są one niewielkim procentem tego, co użytkownicy widzą codziennie w news feedzie. Facebook zaznacza też, że zmniejsza liczbę informacji ze źródeł zewnętrznych, które mogą powodować polaryzację, szerzą dezinformację i które przyciągają clickbaitowymi nagłówkami. Czytamy, że serwis współpracuje również z naukowcami, aby lepiej zrozumieć, jakie funkcję serwisu mogą przyczyniać się do polaryzacji.
Kolejnym zarzutem przedstawionym w filmie, do którego odnosi się Facebook, jest kwestia wpływu social mediów na wybory. Portal społecznościowy przyznaje, że popełnił błędy dotyczące wyborów prezydenckich w USA w 2016 roku, ale od tamtej pory podejmuje działania, aby zapobiec ingerencji w poglądy użytkowników. Przypomina m.in. o wprowadzeniu biblioteki reklam, dzięki której każdy może sprawdzić, jakie przekazy są i były płatne, usuwaniu treści, które mogą wpłynąć na wynik głosowania i udostępnianiu wiarygodnych informacje na temat wyborów. Facebook zaznacza, że „Dylemat społeczny” wszystkie te działania pomija.
Ostatnim zarzutem, do którego odnosi się portal społecznościowy, jest rozprzestrzenianie dezinformacji. Facebook wyjaśnia, że współpracuje z ponad 70 partnerami zewnętrznymi z całego świata, którzy weryfikują treści pojawiające się w serwisie – fake newsy są oznaczane lub otrzymują niższy priorytet wyświetlania w news feedzie. Czytamy, że nieprawdziwe informacje, które mogą przyczynić się m.in. do przemocy lub dotyczą pandemii COVID-19, są natychmiastowo usuwane – na potwierdzenie Facebook wskazuje, że w drugim kwartale 2020 roku pozbył się ponad 22 mln wypowiedzi szerzących nienawiść, z czego 94 proc. z nich wykryto przed zgłoszeniem przez użytkownika.
Czytaj także: Facebook co miesiąc będzie publikować informacje o usuniętych przez siebie fałszywych kontach
„Wiemy, że nasze systemy nie są doskonałe i są rzeczy, których nadal nam brakuje. Ale nie stoimy bezczynnie i nie pozwalamy na rozpowszechnianie dezinformacji lub mowy nienawiści na Facebooku” – podsumowuje portal społecznościowy. (ak)
Zdjęcie główne: youtube.com – Netflix