64 proc. użytkowników YouTube’a stwierdziło w 2018 roku, że „od czasu do czasu” trafia tam na filmy, które można określić jako nieprawdziwe – wynika z badania Pew Research Center. Portal Socialmediatoday.com, który przytacza powyższe dane, zauważa, że wspomniany serwis społecznościowy, w związku z nadchodzącymi wyborami prezydenckimi w Stanach Zjednoczonych, znów znajduje się w centrum debaty o zwalczaniu fake newsów.
YouTube wylicza wyprzedzająco, co robi, by ograniczać rozpowszechnianie nieprawdziwych informacji na swojej platformie. Obecnie serwis skupia się na wykrywaniu treści określanych jako „borderline” – czyli bliskich łamania standardów społeczności. Jak twierdzi YouTube, od początku 2019 roku udało się zmniejszyć widoczność tego typu materiałów w rekomendacjach o 70 proc. Wyświetla też panele informacyjne (z odsyłaczami do zewnętrznych źródeł) przy tematach „podatnych na techniki dezinformacyjne”, takich jak np. szczepienia. Zwiększa też widoczność filmów pochodzących od wiarygodnych źródeł medialnych w zakładce „rekomendowane”.
W przypadku materiałów „borderline” mowa jednak wyłącznie o filmach po angielsku – podkreśla socialmediatoday.com. Serwis społecznościowy ogranicza ich widoczność jednak nie tylko w krajach anglojęzycznych, lecz także w Brazylii, Francji, Niemczech, Meksyku czy Hiszpanii.
Sam YouTube zauważa ponadto, że treści, które trudno odnieść do któregoś ze standardów społeczności, stanowią tylko 1 proc. materiałów oglądanych przez użytkowników – czytamy. Tak czy inaczej, do ich wykrywania serwis angażuje zewnętrznych ekspertów i algorytmy uczenia maszynowego.
(Kliknij, by powiększyć)
Infografika YouTube’a, która przedstawia kroki, jakie podjął serwis w walce z dezinformacją.
Źródło: youtube.googleblog.com
(mp)