Coraz większy i szybszy postęp technologiczny oraz globalna cyfryzacja społeczeństwa, które mogliśmy obserwować na przestrzeni ostatnich lat niewątpliwie przyniosły niezliczone pozytywy. Jednak w perspektywie czasu można także zauważyć drugą stronę medalu, czyli istotne negatywne skutki takiego stanu rzeczy. Można wyróżnić je w co najmniej kilku dziedzinach życia codziennego, jednak przedmiotem naszych rozważań będą dzisiaj tzw. “trolle” internetowe czasem nazywane też “ruskimi trollami”. Nazwa nawiązuje oczywiście do geograficznego miejsca pochodzenia większości szkodliwych hakerów w internecie (a przynajmniej tak się powszechnie przyjmuje, bo twarde i rzetelne dane na ten temat nie istnieją). Z uwagi na fakt, że szkodliwi hakerzy są tworem ściśle związanym ze środowiskiem internetowym, warto w tym miejscu posłużyć się definicją “ruskiego trolla” podawaną przez największe źródło wiedzy cyfrowej na świecie — portal Wikipedia:
Brygady sieciowe (potocznie: Rosyjskie / Ruskie Trolle) – zorganizowane grupy komentatorów, zależne od rosyjskich służb specjalnych, uczestniczące w dyskusjach na forach i blogach internetowych w celu szerzenia dezinformacji i uniemożliwienia rzeczowej obiektywnej dyskusji oraz atakowania poglądów niepożądanych z punktu widzenia polityki rosyjskiej.
Historia
Początki zachowań podobnych do takich brygad można wyszukiwać u metod na wojnę polityczną Active Measures prowadzoną przez Związek Radziecki od lat 20.
Uciekinier z KGB, Yuri Alexandrovich Bezmenov, w 1984 przedstawił techniki prania mózgów dokonywanych przez ZSRR podczas zimnej wojny. Active measures to wojna polityczna prowadzona przez rząd sowiecki lub rosyjski od lat 20. XX wieku. Obejmuje programy, takie jak dezinformacja, propaganda, oszustwo, sabotaż, destabilizacja i szpiegostwo. Programy oparto na priorytetach polityki zagranicznej Związku Radzieckiego. Wojna taka jest wieloetapowa i składa się z:
- Demoralizacja – proces zmiany postrzegania rzeczywistości do tego stopnia, że mimo natłoku informacji nikt nie jest w stanie dojść do wniosków w interesie obrony siebie, rodziny, kraju.
- Destabilizacja – rozregulowanie ekonomii, gospodarki, instytucji wojskowych oraz relacji społecznych i zagranicznych w kraju
- Kryzys – sytuacja, gdy kraj nie jest poradzić sobie z istniejącą sytuacją. Zwykle kończy się wojną domową lub przejęciem władzy przez inny podmiot.
- Normalizacja – następuje gdy kraj zostaje przejęty, a obywatele wyznają nową ideologię
Yuri Alexandrovich Bezmenov jako przykład demoralizacji podał ruch hipisowski – powstały w latach 60, promujący bunt przeciwko rodzinie, kościołowi, szkole, pieniądzom, pracy, wojnie, normom, zakazom. Osoby wychowane w tym ruchu, które w latach 80 były związane z rządem lub różnego rodzaju biznesami wykazywały cechy marksizmu i leninizmu.
Rozsiewanie dezinformacji oraz ideologii pro-rosyjskich przez rosyjskie trolle jest także jednym z sposobów na demoralizację kraju. Teoria prania mózgów stosowana w latach zimnej wojny przez ZSRR nie zmieniła się zbytnio i jest wykorzystywana do dziś – zmieniły się głównie sposoby wykonania.
Przykładowo:
- Po aneksji Krymu przez Federację Rosyjską kontrolowane przez Kreml media rozpowszechniały dezinformację na temat władz Ukrainy.
- W lipcu 2014 roku lot MH17 Malaysia Airlines został zestrzelony przez rosyjski pocisk nad wschodnią Ukrainą, zabijając wszystkich 298 pasażerów. Kontrolowane przez Kreml media i agenci internetowi rozpowszechniali dezinformację, twierdząc, że Ukraina zestrzeliła samolot.
- Podczas wyborów w USA w 2016 roku rosyjskie trole siały niezgodę w USA poprzez rozpalanie emocji w szeregu dzielących kwestii.
“Rosyjskie trole”
Rosyjskie władze uświadomiły sobie jaką potęgę daje internet i jakie niebezpieczeństwo może siać wolna sieć. W magazynie Vestnik na początku XXI wieku pojawił się artykuł „Wirtualne oko Wielkiego Brata”, którego autorzy twierdzą, że pod koniec XX wieku około 70% treści w rosyjskim internecie sprzyjało zachodnim pro-demokratycznym i pro-liberalnym postawom. Zmieniło się to początkiem XXI wieku, kiedy to na rosyjskich forach dyskusjynych zaczęły dominować zorganizowane brygady.
W 2013 rosyjska Internet Research Agency, wydała ogłoszenie pracy. Do zadań pracowników należało: publikowanie komentarzy na stronach internetowych, pisanie blogów, postów w mediach społecznościowych. Pracownicy szybko zyskali miano “rosyjskich troli”.
Rosyjskie trole używaja różnych metod do propagowania swoich treści:
- Brygady często zostawiają setki komentarzy pod artykułami, krytykując opozycję kraju i wspierając pro-Kremlowskie działania i polityków.
- Rosyjskie Trolle często publikują materiały nacechowane dezinformacją, anty-amerykanizmem, ksenofobią, totalitarną ideologią, agresją, antysemityzmem i nietolerancją odmienności.
- Trolle często mają jako cel pogłębianie sporów w społeczeństwie.
- Podszywanie się pod znane osobistości oraz organizacje i publikowanie fałszywych informacji w “ich imieniu”.
- Peter Pomerantsev uważa, że celem rosyjskich trolów jest mylenie publiki a nie przekonywanie ich do pewnych poglądów. Prawdziwe informacje mieszane są z teoriami spiskowymi oraz plotkami. Dzięki temu użytkowniki czytający treści mają większe problemy z odróżnieniem prawdy od fałszu.
W roku 2018 przeprowadzono badanie obecności w mediach społecznościowych Internet Research Agency, organizacji z siedzibą w Petersburgu zajmującej się operacjami wpływu online w imieniu rosyjskich interesów. Dwóch profesorów z Clemson University opublikowało wszystkie tweety związane z kontami IRA i podzieliło je na kategorie według typu. Dwie główne kategorie, do których należały te tweety, to tweety, które albo nie były w języku angielskim, albo naśladowały prawicowe trolle, które często były antyimigranckie. Jeden z największych wniosków płynących z badania: aktywność tych kont wzrosła po wyborach prezydenckich w 2016 r., co sugeruje, że ich celem nie było tylko wywarcie wpływu na wybory prezydenckie w 2016 r., ale szersza akcja na Twitterze.
Poniżej przedstawione są kategorie tweetów wysyłanych przez pracowników IRA:
Powyższy wykres pozwala wysnuć wnioski na temat dużej różnorodności wśród kategorii. Przykładowo niektóre z nich to:
- News feeds – tweety o wiadomościach, wydarzeniach odbywających się na świecie,
- Right Troll to typ trolla wspierający działania Donalda Trumpa oraz często wykazujący anty-imigrandzką postawę,
- Left Troll często jest odopowiednikiem osoby wspierającej ruch Black Life Matter,
- Hashtag Gamer – tweety skierowane do graczy.
Wśród efektów działań rosyjskich trolów można wyróżnić:
- Niektóre fora przestają mieć znaczenie, gdyż są przeciążone trollami, więc zwykły użytkownik ma większe wątpliwości przed wrzuceniem własnych komentarzy, gdyż wie, że otrzyma agresywne odpowiedzi od troli.
- Poprzez rozprzestrzenianie dezinformacji destabilizowany jest kraj, co jest bronią podobnie skuteczną jak tradycyjna, palna broń.
Przykłady sytuacji:
- Z raportu American Journal of Public Health wynika, iż między 2014 a 2017 rokiem stwierdzono duże zainteresowanie sprawami szczepień przez Twitterowe konta. Duża część takich kont stanowiła rosyjskie boty. Boty te sprzeczały się na temat zasadności szczepień. Jedne straszyły przymusowymi szczepieniami, inne studziły nastroje.
- Tworzenie dużej liczby kont podszywających się pod znane organizacje. Z ostatnich tygodni najlepszym przykładem takiego działania było podszywanie się pod organizacje samorządowe w formie wielu kont w serwisie Instagram i przekazywanie za ich pomocą fałszywych informacji dotyczących konfliktu zbrojnego na terytorium Ukrainy.
Przed trollami można się obronić
Nie jest to jednak tak proste jak w przypadku bajkowych trolli. Opłata wymaganego przez fantastycznego trolla myta nie wystarczy, a sam troll nie wykona raczej żadnego pożytecznego czynu, takiego jak np. naprawa mostu. Mimo to, przeciętny użytkownik, nawet nie będący szczególnie techniczną osobą podążając za kilkoma ważnymi wskazówkami w znacznej mierze zwiększy swoje szanse na obronę przed dezinformacją i zapanowanie nad chaosem, tak pożądanym przez rosyjskie brygady internetowe.
-
IŹP — Infrastruktura Źródła Publicznego
Czy zastanawiałeś się kiedyś, w jaki sposób informacja pochodząca od zupełnie nieznajomej osoby z drugiego końca świata dociera na ekran twojego smartfona? Wielu naukowców głowiło się nad tym pytaniem i okazuje się, że posty, newsy czy wszelkie inne cyfrowe treści podlegają takim samym prawom jak rzeczywiste choroby — do modelowania rozprzestrzeniania się zarówno rzeczywistych jak i cyfrowych “patogenów” wykorzystuje się te same modele teoretyczne!
Choroby występujące w świecie rzeczywistym można zatrzymać np. poprzez izolację lub zaktualizowanie swojego systemu immunologicznego przy pomocy szczepienia. W środowisku internetowym pierwszy z wymienionych sposobów raczej nie wchodzi w grę, ponieważ oznaczałby zupełne odcięcie jednostki od sieci Internet. Jednak to co każdy użytkownik może zrobić to zweryfikowanie źródła pochodzenia danej informacji. Czy portal lub osoba od której otrzymaliśmy daną informację lub filmik jest godna naszego zaufania? Czy tę samą informację można potwierdzić na łamach innego, zupełnie niezależnego i wiarygodnego źródła? Czy tę samą informację potwierdza główny zainteresowany (np. firma, której dotyczy dana notka)? Czy uzyskana informacja logicznie współgra z naszym dotychczasowym stanem wiedzy? Co najmniej te wszystkie właśnie wymienione pytania należy zadać sobie zanim przeczytaną treść cyfrową poda się dalej, napędzając karuzelę nierzetelnego przepływu danych i tym samym przyczyniając się do epidemicznego rozniesienia się informacji dalej (jak na załączonej wyżej animacji).
Istnieją także specjalne portale internetowe, tzw. strony fast-checkingowe, stanowiące swego rodzaju bazy wiedzy na temat ostatnich wydarzeń. Zawierają wszystkie niezbędne przypisy, źródła a nawet wyjaśnienia ekspertów związanych z tematem.
2. W grupie siła
Jeszcze innym sposobem na walkę z ogólną dezinformacją są wszelkiego rodzaju działania grupowe. Takie przypadki walki na wielką skalę ramię w ramię grupy internautów z fałszywą informacją są najczęściej odnotowywane podczas szczególnych wydarzeń, kiedy zagrożenie ze strony nieprzyjaznych hakerów jest największe, a wszystkie okoliczności przemawiają za zjednoczeniem się użytkowników internetu w jednym, szczytnym celu — obronie prawdy. Jako przykłady takich konkretnych sytuacji z ostatnich lat można podać wybory prezydenckie w USA w 2016, gdzie działalność cyfrowa znacznie przechyliła szalę zwycięstwa demokratów lub niestety cały czas trwająca wojna na Ukrainie. Najczęstszą formą wspomnianych działań grupowych są grupy w portalach społecznościowych, takich jak fb, twitter czy Telegram. Tworzą one swego rodzaju community, których użytkownicy postują fałszywe informacje znalezione w różnych miejscach Internetu, tym samym ostrzegając przed nimi innych użytkowników. Członkowie takich społeczności mogą także zadawać pytania w kwestiach znalezionych informacji i prowadzić na ich temat dyskusje, dzieląc się niezależnymi źródłami przemawiającymi za lub przeciw informacjom będącymi przedmiotem debaty. Takie grupowe wyciąganie wniosków okazało się dużo bardziej efektywne od decyzji jednej osoby, np. w dziedzinie ML i uczenia grupowego, tzw. ensemble learning.
Bardzo dobrym i żywym przykładem omawianych portali z ostatnich tygodni może być konto w serwisie Twitter @przeciw_wojnie. Użytkownicy mogą postawać tam regularnie fałszywe informacje znalezione w różnych miejscach globalnej sieci oraz weryfikować już zauważone posty prowadząc ze sobą dyskusje.
Jakie płyną z tego wnioski?
Pomimo faktu, że nasze społeczeństwo coraz bardziej zanurza się w świecie cyfrowym, jesteśmy w coraz większym stopniu podatni na ataki ruskich trolli. Jednak sama świadomość własnego położenia, na celowniku dezinformatorów, jest pierwszym krokiem do skutecznej obrony. Znając opisane tutaj techniki oraz używając głowy i racjonalnego, chłodnego myślenia każdy z nas jest w stanie wykryć ataki trolli poprzez m.in. poddanie w wątpliwość niezweryfikowanych informacji i nieprzekazywanie ich dalej, tym samym skracając ich czas życia w świadomości społecznej.
Bibliografia
https://en.wikipedia.org/wiki/Russian_web_brigades
https://blog.google/outreach-initiatives/public-policy/security-and-disinformation-us-2016-election/
https://bigthink.com/the-present/yuri-bezmenov/
https://en.wikipedia.org/wiki/Active_measures
https://spidersweb.pl/2022/02/jak-skutecznie-bronic-sie-przed-dezinformacja-w-sieci.html
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…