Twitter opracowuje nową opcję filtrowania odpowiedzi, która ma umożliwić użytkownikom zmniejszenie ich ekspozycji na tweety zawierające „potencjalnie szkodliwy lub obraźliwy język” zidentyfikowany przez platformę – podaje socialmediatoday.com.
Badaczka aplikacji, Jane Manchun Wong, opublikowała na swoim profilu screen pokazujący, jak nowe narzędzie miałoby wyglądać.
Źródło: twitter.com/wongmjane
Jak wspomniano w opisie, filtr ma uniemożliwić wyświetlenie niechcianych odpowiedzi, ale inni nadal będą mogli je zobaczyć – czytamy.
Źródło podaje, że system prawdopodobnie wykorzystywałby te same algorytmy wykrywania, które Twitter uruchomił w 2021 roku.
Jak czytamy dalej, serwis twierdzi, że te systemy okazały się skuteczne, a użytkownicy zdecydowali się zmienić lub usunąć swoje odpowiedzi w 30 proc. przypadków, w których te ostrzeżenia zostały wyświetlone.
Oficjalna data wprowadzenia nowej opcji nie jest jeszcze znana – podaje źródło. (bs)