Twitter testuje nowe rozwiązanie, które ma chronić użytkowników przed obraźliwymi komentarzami – podaje socialmediatoday.com. Czytamy, że portal społecznościowy miałby pytać użytkowników, czy chcą ukryć potencjalnie obraźliwe odpowiedzi na swoje tweety. Źródło powołuje się na doniesienia ekspertki Jane Manchun Wong. Jak dalej czytamy, nowa opcja miałaby zapobiegać kłótniom lub negatywnym interakcjom w serwisie.
Źródło informuje, że platforma może dodać nowe wyskakujące okno, które ostrzegałoby użytkowników o potencjalnie obraźliwych treściach wykrytych przez system Twittera. Narzędzie miałoby służyć jako przypomnienie, że odpowiedzi można ukryć i że czasem to lepsze rozwiązanie od niepotrzebnego wchodzenia w np. mało merytoryczną dyskusję. Czytamy też, że taka aktualizacja mogłaby zwiększyć „uprzejmość” między użytkownikami.
Źródło: twitter.com/wongmjane
Socialmediatoday.com przypomina, że serwis w ostatnim czasie dodał również podpowiedzi, które zachęcają użytkowników do przeczytania artykułów przed ich ponownym udostępnieniem, czy opcje mające na celu powstrzymanie rozprzestrzeniania się dezinformacji w aplikacji.
Czytaj też: Twitter informuje, jak alerty wpływają na otwieranie linków przed udostępnieniem
Źródło twierdzi, że również ta najnowsza aktualizacja mogłaby pomóc serwisowi w byciu wiarygodnym i pozbawionym negatywnych treści, jednak – jak czytamy – Twitter nie potwierdził do tej pory wprowadzenia narzędzia. (kd)