Twitter wznawia testy ostrzeżeń w odpowiedziach na tweety zawierających potencjalnie obraźliwe treści – podaje socialmediatoday.com. Czytamy, że serwis społecznościowy sprawdzał już to rozwiązanie w maju 2020 roku, jednak teraz zamierza uruchomić ostrzeżenia w nowym formacie, a także dokładniej wyjaśniać, dlaczego dana odpowiedź została oznaczona jako nieodpowiednia.
Źródło: twitter.com/TwitterSupport
Jak informuje źródło, Twitter będzie wyświetlał użytkownikom powiadomienie z prośbą o przyjrzenie się odpowiedzi, w której wykryto obraźliwe lub szkodliwe treści. Użytkownik dostanie trzy opcje – może mimo wszystko zamieścić odpowiedź, edytować swój komentarz albo skasować odpowiedź. Czytamy, że w powiadomieniu nastąpiła spora zmiana – pierwotnie testowana wersja była dużo bardziej ogólna.
Jak pisze dalej źródło, Twitter zaktualizował alerty już w sierpniu, jednak ze względu na kampanię wyborczą w Stanach Zjednoczonych testy zostały wstrzymane. Obecnie funkcja jest sprawdzana u użytkowników aplikacji na system iOS. Czytamy, że rozwiązanie jest podobne do tego wprowadzonego przez Instagram w lipcu 2019 roku – serwis również pokazuje alert o potencjalnie obraźliwym komentarzu.
Czytamy, że powiadomienia te pomagają uniknąć sporów między użytkownikami portali społecznościowych, które często wynikają z błędnej interpretacji czy pośpiechu. Twitter chce więc zachęcić użytkowników do dłuższej refleksji nad tym, co zamierzają napisać, i przyczynić się do tego, by komunikacja w serwisie była bardziej „pozytywna”.
Twitter niedawno wprowadził także alerty dotyczące podawania dalej artykułów – powiadomienia zachęcały do zapoznania się z treścią przed jej udostępnieniem. Jak czytamy, w efekcie ludzie otwierali linki o 40 proc. częściej po zobaczeniu powiadomienia.
Czytamy dalej, że Twitter testował również podobne rozwiązanie dotyczące powiadomień przy treściach, których wiarygodność została zakwestionowana przez osoby weryfikujące fakty. (mb)