poniedziałek, 16 września, 2024
Strona głównaAktualnościCzy algorytm Facebooka wpływa na decyzje polityczne? Są wyniki badań

Czy algorytm Facebooka wpływa na decyzje polityczne? Są wyniki badań

Czasopisma naukowe „Sciene” i „Nature” w lipcu 2023 roku opublikowały wyniki badań przygotowanych na podstawie analizy aktywności na Facebooku i Instagramie przed wyborami prezydenckimi w Stanach Zjednoczonych w 2020 roku. Rezultaty współpracy naukowców z Metą mogą być interpretowane na różne sposoby – swoimi spostrzeżeniami podzieliła się firma Zuckerberga, wnioski z badań opisują też m.in. serwisy techcrunch.com czy socialmediatoday.com.

Meta przekazuje, że istnieje niewiele dowodów na to, że kluczowe cechy samych platform mają wpływ na postawy polityczne, przekonania lub zachowania użytkowników. Tym samym firma Zuckerberga stara się obalić pogląd, że Facebook czy Instagram przyczyniły się do podziałów politycznych.

Obecnie udostępniono cztery artykuły, które są częścią docelowych 16 publikacji. Badania te powstały w ramach współpracy między Metą a społecznością naukową, co miało ułatwić cały proces.

Każdy artykuł zawiera szereg różnych testów z udziałem użytkowników, którzy wcześniej wyrazili na to zgodę. Należały do nich m.in. uniemożliwienie użytkownikom Facebooka zobaczenia „ponownie udostępnionych” postów czy zmniejszenie liczby postów wyświetlanych użytkownikom Facebooka ze źródeł o „podobnych poglądach”.

Testy zostały zaprojektowane w taki sposób, aby sprawdzić hipotezę „bańki informacyjnej”. Zakłada ona, że algorytmy mediów społecznościowych wpływają na poglądy ludzi przez pokazywanie im większej liczby treści, z którymi się zgadzają, a mniejszej liczby tych, które nie są zgodne z ich poglądami.

W jednym z badań naukowcy sprawdzali, w jakim stopniu użytkownicy Facebooka byli narażeni tylko na treści, z którymi byli zgodni politycznie. „Strony i grupy przyczyniają się znacznie bardziej do segregacji i polaryzacji odbiorców niż użytkownicy” – napisali naukowcy.

Eksperymenty wykazały również znaczną asymetrię między liberalnymi i konserwatywnymi treściami politycznymi na Facebooku. Odkryto, że większa część konserwatywnych publikacji na platformie została uznana za fałszywą przez system, co pokazuje, że użytkownicy o takich przekonaniach są narażeni na więcej dezinformacji politycznych w internecie. (ao)

ZOSTAW KOMENTARZ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj