Facebook ogłosił, że wprowadza nową technologię, opartą na sztucznej inteligencji, która ma wykrywać oraz usuwać treści, w tym obrazy intymne, które można uznać za pornograficzne – poinformował portal wersm.com.
Jak czytamy dalej, łatwość oraz szybkość, z jaką użytkownicy mogą publikować posty o dowolnej treści doprowadziły do zwiększenia się na platformie liczby obrazów oraz filmów o charakterze intymnym, publikowanych bez zgody osób na nich umieszczonych. Pomimo wysiłków Facebooka mających na celu wykrycie oraz usunięcie tych materiałów, nadal jest wiele do zrobienia – pisze źródło. Odpowiedzią na to ma być wprowadzenie przez serwis sztucznej inteligencji oraz algorytmów uczenia maszynowego, które aktywnie będą wykrywać nagie zdjęcia oraz nagrania – czytamy na stronie. W praktyce ma to oznaczać, że treści te będą usuwane jeszcze zanim zostaną przez kogokolwiek zgłoszone.
Antigone Davis, Global Head of Safety Facebooka wytłumaczył, że nową technologię będzie nadzorować specjalnie wyszkolony członek zespołu ds. działań społecznych, który będzie weryfikować odnalezione przez ten system materiały – podaje źródło. Jeśli obraz lub nagranie faktycznie będzie naruszało normy społeczne, wówczas taki materiał zostanie usunięty, a w większości przypadków usunięte zostanie również konto, z którego go dodano. Antigone Davis zaznaczył, że istnieje środek, przez który użytkownik będzie mógł odwołać się od takiej decyzji, jeśli uzna, że popełniono błąd – pisze portal.
Nowa technologia jest również elementem programu pilotażowego Facebooka, który jest prowadzony wspólnie z organizacjami adwokackimi wspierającymi ofiary działań w sieci. Oprócz tego platforma uruchamia centrum wsparcia „Nie bez mojej zgody” (w org. „Not Without My Consent”) w swoim centrum bezpieczeństwa, przez które osoby poszkodowane będą mogły odnaleźć organizacje, w których znajdą wsparcie. Program ten ma zostać rozszerzony w ciągu następnych kilku miesięcy – pisze źródło.
Dodatkowo Facebook pracuje nad nowymi narzędziami wsparcia dla ofiar, aby ludzie na całym świecie mieli łatwiejszy dostęp do informacji, gdzie lokalnie mogą szukać pomocy w przypadku przemocy w serwisie. Program ten jest tworzony we współpracy z organizacjami Revenge Porn Helpline (Wielka Brytania), Cyber Civil Rights Initiative ( USA), Digital Rights Foundation (Pakistan), SaferNet (Brazylia) oraz professor Lee Ji-Yeon (Korea Południowa) – poinformowało wersm.com. (pm)