4 grudnia 2024 roku Meta opublikowała „Adversarial Threat Report”, w którym przeanalizowała wykryte w należących do niej aplikacjach działania polegające na skoordynowanym wywieraniu wpływu. Firma przedstawiła także wgląd w odnotowane w ciągu roku kluczowe trendy, które wskazują na trwające i nadal pojawiające się obawy dotyczące zagrożeń związanych z cyberbezpieczeństwem – podaje techcrunch.com.
Jak podkreśla Meta, cytowana przez źródło, większość skoordynowanych działań dotyczących wywierania wpływu pochodzi z Rosji. Rosyjscy agenci nadal bowiem starają się zmienić globalne narracje na swoją korzyść. „Rosja pozostaje głównym źródłem globalnych sieci CIB, które zakłóciliśmy do tej pory od 2017 roku, z 39 tajnymi operacjami wywierania wpływu. Kolejnymi najczęstszymi źródłami zagranicznej ingerencji są Iran z 31 sieciami CIB i Chiny z 11” – zauważa firma.
W raporcie Meta skomentowała też postępujące wykorzystanie sztucznej inteligencji w skoordynowanych kampaniach manipulacyjnych. Firma zapewnia, że „dotychczasowe ustalenia sugerują, że taktyki oparte na GenAI zapewniły podmiotom stanowiącym zagrożenie jedynie przyrostowy wzrost produktywności i generowania treści, i nie utrudniły zdolności Mety do zakłócania ich tajnych operacji wywierania wpływu” – pisze techcrunch.com.
Sztuczna inteligencja najczęściej miała być wykorzystywana przez cyberprzestępców do generowania zdjęć profilowych dla fałszywych profili, co w dużej mierze jest wykrywane przez najnowsze systemy, a także do tworzenia „fikcyjnych marek informacyjnych publikujących generowane przez AI wideo prezenterów wiadomości w internecie” – czytamy.
Meta wspomniała także, że większość wykrytych sieci manipulacji korzystała z różnych serwisów społecznościowych, w tym również YouTube’a, TikToka, X, Telegrama, Reddita czy Pinteresta. Ponadto, wiele operacji wywierania wpływu było przenoszonych na platformy, które posiadają mniejszą liczbę zabezpieczeń. (ao)
Źródło: socialmediatoday.com, Meta Highlights Misinformation Trends Based on 2024 Detection, Andrew Hutchinson, 5.12.2024