Home » Uncategorized » W jaki sposób działają “Ruskie trole”? co zyskują, jak działają, jak im się przeciwstawić – gdzie w tym SI i Data Science

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 100
  • 616
  • 25 026
  • 7 315
  • 126

W jaki sposób działają “Ruskie trole”? co zyskują, jak działają, jak im się przeciwstawić – gdzie w tym SI i Data Science

Spread the love

W dzisiejszych czasach lądy, morza i przestrzenie powietrzne realnego świata nie są jedynymi miejscami, w których toczy się wojna. Innym – równie ważnym polem walki – jest świat wirtualny. Można powiedzieć, że to właśnie nim toczy się walka o nasze umysły. W jaki sposób się ona odbywa? Jaki jest cel tej walki? W końcu, jak można się jej przeciwstawić – i jak w tym pomóc może sztuczna inteligencja i data science?

Wojna informacyjna

Internet jest medium pełnym treści i informacji. W przeciwieństwie do mediów tradycyjnych, tworzyć i udostępniać je może każdy – zarówno poprzez założenie swojej strony internetowej, jak i udzielanie się na platformach społecznościowych. Umożliwia to możliwość błyskawicznego udostępniania i uzyskiwania informacji z dowolnego miejsca na świecie.

Taki stan rzeczy, oprócz niezaprzeczalnych zalet, ma zasadniczą wadę – informacje te mogą być udostępniane anonimowo i nie są przez nikogo weryfikowane. Powoduje to, że mogą być po prostu nieprawdziwe. Właśnie ten aspekt działania Internetu – a zwłaszcza sieci społecznościowych – jest wektorem prowadzonej w Internecie wojny informacyjnej.

Wojną informacyjną określa się (za anglojęzyczną Wikipedią (WEB1), tłum. autorów):

jest manipulacją informacją zaufaną przez cel ataku (bez jego świadomości) tak, żeby cel podejmował decyzje zgodne nie z jego interesem, lecz interesem strony przeprowadzającej wojnę informacyjną.

Celem wojny informacyjnej jest sianie dezinformacji. Cytując artykuł (2):

Dezinformację można postrzegać jako zaawansowaną formułę przekazu, którego celem jest wywołanie u odbiorcy poglądu, decyzji, działania lub jego braku, w zgodzie z założeniem ośrodka który planował proces wprowadzenia odbiorcy w błąd

Wojna informacyjna umożliwia zwodzenie opinii publicznej w kierunku pożądanym przez agresora. Od klasycznej propagandy odróżnia ją to, że nie ma ona na celu przekonanie do określonego systemu wartości, lecz sianie niepewności i zamętu.

Należy również odróżnić wojnę informacyjną od cyberwojny (cyber warfare). Cyberwojna również dzieje się w świecie wirtualnym, jednak w niej celem są infrastruktura sieciowa i systemy informatyczne same w sobie. W wojnie informacyjnej natomiast Internet, media społecznościowe (ale również media tradycyjne takie jak np. telewizja) są jedynie środkiem do dotarcia do ludzkich umysłów.

“Ruskie trole”

Jednym (lecz nie jedynym) z państw stosujących techniki wojny informacyjnej jest Rosja. Nie dotyczy to jedynie czasów dzisiejszych. Już w 1903 roku ukazały się “Protokoły mędrców Syjonu”, opisujące rzekomy plan opanowania świata przez Żydów. Były one jednśak fałszywką Ochrany (carskiej policji politycznej) i miały na celu wzmożenie antysemickich nastrojów. Innym przykładem jest przeprowadzona przez KGB w latach 80. operacja INFEKTION, mającą na celu obarczenie Stanów Zjednoczonych odpowiedzialnością za wybuch epidemii wirusa HIV (3).

Obecnie Rosja dalej prowadzi działania dezinformacyjne. Przykładowymi metodami prowadzenia takich działań są (za (4)):

  • wykorzystanie anonimowości dawanej przez Internet i tworzenie fałszywych kont
  • trollowanie – prowadzenie działań zwodzących dyskusje na tory wywołujące określone uczucia wśród jej uczestników.
  • rozprzestrzenianie “fake newsów” – fałszywych (częściowo lub w całości) informacji.
  • używanie botówprogramy udające użytkowników sieci społecznościowych. Ich użycie ma na celu udostępnianie bądź dodawanie reakcji pod dezinformującymi zawartościami (np. postami) w celu dalszego kształtowania nastrojów oraz zwiększania zasięgów pod określonymi postami.

Można zauważyć, że te działania mają nie tylko na celu sianie kłamstw, lecz również kształtowanie emocji. Mają one duży wpływ na odbiór informacji i postrzeganie świata przez ludzi. Niektórzy mówią wręcz, że żyjemy w epoce “postprawdy”, gdzie dla kształtowania opinii publicznej emocje są ważniejsze od faktów.

Działania te prowadzone są przez “farmy trolli”. Najbardziej znaną jest petersburska Agencja Badań Internetowych (na zdjęciu):

Biuro Agencji Badań Internetowych, źródło: Wikipedia.

Konflikty w portalach społecznościowych

Społeczności internetowe są elementem wielu platform internatowych, na których użytkownicy wyrażają swoje opinie i działa się informacjami. Jednak mają również potencjał, by stać się miejscem konfliktów i zachowań antyspołecznych.

 

Konflikty społeczności na Reddit. Czerwone społeczności oznaczają duża ilość konfliktów

Naukowcy ze Stanford, wykorzystali 40 miesięcy komentarzy i postów na reddit, aby zbadać konflikty między społecznościami, w których to konfliktach jedna społeczność Reddit atakuje drugą społeczność.

Odkryli że zazwyczaj mała społeczność inicjalizuje konflikt. Mniej niż 1% społeczności inicjuje 74% konfliktów na Reddit. 

AI w służbie dezinformacji

Generowanie tożsamości

Pytanie: kim jest osoba na zdjęciu poniżej?

Odpowiedź: NullPointerException. Ta osoba nie istnieje. Wygenerowałem ją z użyciem strony https://thispersondoesnotexist.com/. Umożliwia ona generowanie realistycznie wyglądających twarzy nieistniejących osób z wykorzystaniem sieci neuronowych GAN. Możesz również wygenerować takie zdjęcie – wystarczy odwiedzić tą stronę.

Fanpage Bots of New York idzie o krok dalej – obok twarzy nieistniejących osób, generuje również ich wypowiedzi:

 

Opisane wyżej możliwości mogą być wykorzystywane – i są wykorzystywane – w wojnie informacyjnej. Jak wspomniałem wcześniej, w Internecie możemy być anonimowi. Możemy też stworzyć jednak fałszywą tożsamość nieistniejącej osoby, aby uwiarygodnić nasze informacje poprzez to, że pozornie nie będzie anonimowa. Poniżej tweety dziennikarza NBC zajmującego się dezinformacją, Bena Collinsa, opisujące takie działanie:

Walka z dezinformacją

Wojna informacyjna jest dużym zagrożeniem dla państw, które są celem dezinformacji. Z tego powodu podjęły one działania w celu walki z nią.

Jako odpowiedź na “Ruskie trolle” powstały systemy informatyczne, które pomagają zidentyfikować czy użytkownik jest “trollem” i powstały anonimowe organizacje walczące z Rosyjską propagandą. Jedną z takich grup są tak zwane “Elves”.

Elves simple fight trolls

Ričardas Savukynas about the name of the group “Elves”

Grupa ta zrzesza duża, nieformalną społeczność obywateli Litwy, które przez ostatnie 8 lat toczą walkę z Rosyjską dezinformacją, która regularne zalewa litewskie media społecznościowe. Pracując samotnie i spotykając się na grupach Facebookowych, wkraczają do akcji, gdy jeden z członków identyfikuje wiadomości lub fałszywe konta, które są wyraźnym produktem rosyjskich trolli. Zgłaszając dezinformacją, ostatecznie generuję wystarczającą liczbę skarg, aby Facebook mógł te wiadomości usunąć. Taka metoda stała tak efektywna, że minister obrony narodowej Litwy zarekomendował taką metodą jako alternatywę dla młodych osób, które chcą obecnie bronić Ukrainy, ale nie posiadają dostatecznego wojskowego doświadczenia.

AI w walce z dezinformacją

Anyone else notice the false users in this thread? I recognise their language. It has very specific traits like appearing to have genuine curiosity yet backed by absurd statements. Calling for ‘clear evidence’ and questioning the veracity of statements (which would normally be a good thing but not under a guise). Wonder if you could run it through machine learning to identify these type of users/comments.

koalefant in r/worldnews

Wraz z rozwojem Machine Learningu i przetwarzania języka naturalnego zostały opracowane systemy informatyczne, które potrafią automatycznie rozpoznać czy konto jest trollem. W artykule naukowcy ze Stanford, pokazują jak obecnie modele Deep learningowe są w stanie rozpoznać takie konta. Dane to komentarze rosyjskich trolli na Reddit, których konta zostały zbanowane w 2017 roku

Wyniki modeli NLP używając metryk AUC i accuracy

Model BERT połączonych z Rekurencyjną Siecią neuronową osiąga najlepszy wyniki AUC 0.846. Perfekcyjny wynik AUC równałoby się 1, więc jeszcze jest dużo miejsc na ulepszenie modelu 

Konta trolli koncentrują się również na tematach postrzeganych jako przypodobające się społeczności internetowej 

Są one ścliśle pro-kryptowalutowe i opowiadają się za tym w mediach społecznościowych podczas gdy w tym samym czasi to samo konto może również popychać do dyskursku politycznego

Strighini

Jednak pomimo prób zachowania pozorów normalności, naukowcy znaleźli informacje kont, które mogą sugerować nieautentyczność. Konta troli zwykle publikują mniej niż 10 procent komentarzy niż „prawdziwe” konto na Reddit, co sugeruje, że udawanie rzeczywistości jest trudne do utrzymania przez długi czas lub że rezygnują, gdy myślą, że ich praca jest skończona. Są też bardziej skłonni do publikowania wiadomości niż do brania udziału w dyskusji. Trole społecznościowe są też często wykrywane, ponieważ nie mogą się powstrzymać od komentowania nawzajem swoich wątków.

Trole tez potrafią grupować się w różne grupy.

Grupowanie troli w elekcjach USA w 2016 roku

Na powyższym obrazku widać jak trole się pogrupował w elekcjach prezydenckich USA, które się odbyły w 2016 roku.

Lewe trole głównie się opowiadają ze aktywistów Black Lives Matter, gdzie pochwalali Berninego Sandersa i krytykowali Hillary Clinton, probojac podzielić partie demokratyczna. Prawe trole zachowują się jak osoby głosujące na Donalda Trupa i cały czas mówią o polityce. News Feed trole zachowują się jak agregatory lokalnych wiadomości.

 

Przestrzeń informacyjna otwiera szerokie, asymetryczne możliwości redukcji prawdopodobieństwa walki z potencjałem przeciwnika.

Valery Gerasimov, Chief ofthe Russian General Staff

 

Źródła

  1. Wikipedia, https://en.wikipedia.org
  2. Kamil Basaj, Dezinformacja czyli sztuka manipulacji – https://www.cybsecurity.org/pl/dezinformacja-czyli-sztuka-manipulacji/
  3. United States. Department of State. (1987). Soviet Influence Activities: A Report on Active Measures and Propaganda, 1986-87 (Vol. 9627). US Department of State.
  4. Pogorzelski, P. (2017). Zagrożenie rosyjską dezinformacją w Polsce i formy przeciwdziałania. Kolegium Europy Wschodniej im. Jana Nowaka-Jeziorańskiego we Wrocławiu.
    5. Weller, Henry, and Jeffrey Woo. “Identifying russian trolls on reddit with deep learning and bert word embeddings.” Comput. Sci (2019): 1-11.
    6. Srijan Kumar, William L. Hamilton, Jure Leskovec, Dan Jurafsky, Community Interaction and Conflict on the Web (2018)
    7. Chris Stokes-Walker Researchers have a method to spot Reddit’s State-Backed Trolls – https://www.wired.com/story/researchers-reddit-state-trolls/

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…