Home » AGH 2025/26 » Manipulacje polityczne w mediach społecznościowych: Jak algorytmy i AI decydują o Twoich poglądach?

Manipulacje polityczne w mediach społecznościowych: Jak algorytmy i AI decydują o Twoich poglądach?

Spread the love

Nowy paradygmat władzy informacyjnej

Współczesna polityka coraz wyraźniej przenosi się z fizycznych przestrzeni debat i instytucji do środowiska cyfrowego. Media społecznościowe przestały być jedynie narzędziem komunikacji – stały się autonomicznym ekosystemem, w którym każdego dnia rzeźbiona jest nasza rzeczywistość społeczna, polityczna i emocjonalna. To właśnie tam, w zaciszu algorytmicznych procesów, powstają narracje wpływające na nasze decyzje wyborcze, postawy obywatelskie oraz interpretację najpoważniejszych konfliktów międzynarodowych.

Aby zrozumieć mechanizm współczesnej manipulacji, należy przyjrzeć się jej fundamentom:

  • Założenie: Powszechny i darmowy dostęp do internetu miał przynieść ostateczną demokratyzację wiedzy oraz niczym nieskrępowaną wolność słowa.
  • Teza: W rzeczywistości cyfrowa infrastruktura stała się narzędziem precyzyjnej, choć niewidocznej kontroli postaw społecznych, gdzie „wolność wyboru” jest często starannie zaprojektowaną iluzją.
  • Dowód: Mechanizm ten opiera się na zjawisku niewidzialności wpływu. Manipulacja w 2026 roku nie przypomina już topornej propagandy znanej z ubiegłego wieku. Jest subtelna, rozproszona i zintegrowana z codziennym doświadczeniem użytkownika. Jak zauważa Shoshana Zuboff (2019), współczesna „architektura wyboru” sprawia, że odbiorca konsumuje treści idealnie dopasowane do jego profilu psychologicznego, co utwierdza go w błędnym przekonaniu o pełnej autonomii swoich poglądów.

Paradoks współczesności polega więc na tym, że im większy mamy dostęp do informacji, tym łatwiej o ich centralną kontrolę. Nie chodzi już o to, by zabronić nam myśleć – chodzi o to, by skutecznie zarządzać tym, o czym myślimy i jakie emocje nam przy tym towarzyszą.

Cyfrowa infrastruktura wpływu i fragmentaryzacja prawdy

Media społecznościowe funkcjonują w oparciu o zaawansowane algorytmy, których nadrzędnym celem jest maksymalizacja zaangażowania użytkownika. W praktyce oznacza to promowanie treści wywołujących najsilniejsze reakcje, co sprawia, że manipulacja staje się wpisana w samą logikę działania platform.

  • Założenie: Algorytmy mają za zadanie dostarczać nam obiektywnie wartościowe i interesujące nas treści.
  • Teza: W rzeczywistości systemy te faworyzują polaryzację, zamykając nas w „bańkach informacyjnych” (Pariser, 2011).
  • Dowód: Mechanizm ten opiera się na analizie lęków i uprzedzeń, co prowadzi do rozpadu wspólnej przestrzeni informacyjnej. Społeczeństwo przestaje dzielić tę samą bazę wiedzy, a te same wydarzenia funkcjonują w sprzecznych interpretacjach – od aktu agresji po uzasadnioną obronę.

Dzięki tak precyzyjnej infrastrukturze danych, działania polityczne nie muszą być już kierowane do ogółu. Wystarczy zidentyfikować podatne mikro-grupy i dostarczyć im przekaz, który uniemożliwi dostrzeżenie alternatywnych faktów. W erze cyfrowej nie mamy już zatem do czynienia jedynie z różnicą opinii, lecz z fundamentalną różnicą faktów, na których te opinie są budowane.

Wniosek: Manipulacja w tym modelu nie polega na zmuszaniu do zmiany zdania, lecz na izolowaniu odbiorcy wewnątrz narracji, która wyklucza dialog z drugą stroną.

Wojna informacyjna jako element współczesnych konfliktów

Przykład narastającego napięcia między Izraelem i Stanami Zjednoczonymi a Iranem pokazuje, że współczesne działania militarne są dziś nierozerwalnie związane z operacjami w infosferze. Media społecznościowe przestały być jedynie tłem dla wydarzeń – stały się równoległym polem walki, na którym toczy się bezpardonowa rywalizacja o interpretację faktów w czasie rzeczywistym.

W tym kontekście informacja przestała być jedynie opisem rzeczywistości. Stała się aktywnym narzędziem jej kreowania, a panowanie nad narracją jest obecnie równie istotne, co przewaga technologiczna na fizycznym froncie. To właśnie w tym cyfrowym wymiarze kognitywnym rozstrzyga się dziś legitymizacja działań zbrojnych w oczach światowej opinii publicznej.

Kryzys prawdy w erze sztucznej inteligencji

Jednym z najbardziej wymownych przykładów współczesnej manipulacji jest sytuacja opisana przez Euronews, dotycząca działań Benjamina Netanjahu. W trakcie eskalacji konfliktu w mediach społecznościowych zaczęły pojawiać się informacje sugerujące śmierć premiera Izraela. Narracje te, wzmacniane przez źródła powiązane z Iranem, błyskawicznie zyskały globalne zasięgi.

W odpowiedzi Netanjahu opublikował nagranie, które miało być dowodem jego obecności i ostatecznym ucięciem spekulacji:

Paradoksalnie, publikacja ta nie zakończyła kryzysu, lecz wywołała zjawisko określane jako spirala dezinformacji:

  • Założenie: Autentyczne nagranie wideo w dobie natychmiastowej komunikacji powinno być niepodważalnym dowodem kończącym fałszywe plotki.
  • Teza: W erze powszechnego lęku przed sztuczną inteligencją, sama obecność technologii deepfake sprawia, że nawet prawda staje się przedmiotem systemowej podejrzliwości.
  • Dowód: Użytkownicy masowo podważali autentyczność wideo, błędnie interpretując artefakty kompresji obrazu jako dowody na ingerencję AI. Chaos pogłębiły algorytmy weryfikujące, takie jak Grok, które błędnie sklasyfikowały materiał jako deepfake. W efekcie technologia mająca chronić nas przed kłamstwem, stała się paliwem dla dalszej eskalacji manipulacji.

Kluczowy wniosek: Celem współczesnej manipulacji nie jest już tylko przekonanie nas do konkretnego kłamstwa. Jest nim doprowadzenie do stanu paraliżu poznawczego, w którym przestajemy wierzyć nawet w to, co widzimy na własne oczy.

Emocjonalna logika i mechanizmy dezinformacji

Treści polityczne w mediach społecznościowych rzadko odwołują się do racjonalnej argumentacji. Badania pokazują, że użytkownicy znacznie chętniej udostępniają treści wywołujące silne stany afektywne, szczególnie te negatywne, jak strach czy gniew (Bakshy, Messing, & Adamic, 2015). To właśnie te emocje stanowią paliwo dla algorytmów napędzających zaangażowanie.

W tym ekosystemie dezinformacja nie jest przypadkiem, lecz precyzyjnym narzędziem uderzającym w najczulsze punkty psychologii odbiorcy. Jej skuteczność opiera się na trzech filarach:

  • Uproszczone narracje: Redukowanie złożonych konfliktów do czarno-białych schematów (np. absolutne dobro kontra radykalne zło), co eliminuje potrzebę niuansowania faktów.
  • Silne bodźce wizualne: Wykorzystanie drastycznych obrazów, które wywołują natychmiastową reakcję emocjonalną, skutecznie blokując racjonalną analizę tekstu.
  • Tożsamość i wartości: Odwoływanie się do przekonań moralnych, przez co podważenie informacji jest odczytywane jako atak na system wartości odbiorcy.

Dodatkowym wzmocnieniem jest systemowa automatyzacja. Boty nie tylko zwiększają zasięgi, ale tworzą tzw. social proof (dowód społeczny). Użytkownik widząc tysiące interakcji pod zmanipulowanym przekazem, podświadomie uznaje go za wiarygodny i powszechnie akceptowany (Ferrara et al., 2016).

Mikrotargetowanie w praktyce geopolitycznej

Jednym z najbardziej zaawansowanych technologicznie aspektów współczesnej manipulacji jest mikrotargetowanie. Polega ono na precyzyjnym dostosowaniu przekazu do bardzo wąskich grup odbiorców na podstawie ich śladu cyfrowego oraz danych behawioralnych gromadzonych przez platformy społecznościowe.

  • Założenie: Tradycyjna kampania informacyjna powinna opierać się na spójnym, jednolitym przekazie kierowanym do całej opinii publicznej.
  • Teza: W cyfrowym ekosystemie nie istnieje już jedna „prawda” publiczna – zamiast niej funkcjonuje wiele wersji tej samej historii, skrojonych pod konkretne lęki, potrzeby i profil psychologiczny danej grupy.
  • Dowód: W kontekście konfliktu na linii Iran–Izrael–USA przekazy kierowane do zachodnich społeczeństw często skupiają się na wartościach demokratycznych i bezpieczeństwie. Jednocześnie narracje kierowane do regionów Globalnego Południa akcentują wątki antyimperializmu i suwerenności. Każdy odbiorca otrzymuje taką wersję wydarzeń, która najlepiej rezonuje z jego lokalnym kontekstem i osobistymi uprzedzeniami.

Takie działanie sprawia, że debata publiczna staje się niemożliwa, ponieważ różne grupy społeczne, mimo omawiania tego samego konfliktu, operują na całkowicie odmiennych argumentach i zestawach informacji.

Psychologia odbiorcy: Dlaczego dajemy się łapać?

Skuteczność manipulacji wynika z samej natury ludzkiego poznania. Nasz mózg, ewolucyjnie przystosowany do szybkiego reagowania na emocje i zagrożenia, w środowisku cyfrowym staje się najsłabszym ogniwem procesu informacyjnego.

Kluczowe mechanizmy psychologiczne to:

  • Efekt potwierdzenia: Instynktownie akceptujemy treści zgodne z naszym światopoglądem (Nickerson, 1998). Gdy narracja nam „pasuje”, krytycyzm drastycznie spada na rzecz satysfakcji z potwierdzenia własnej racji.
  • Skąpstwo poznawcze: W obliczu przeładowania informacjami mózg wybiera heurystyki – drogi na skróty. Zamiast analizy źródeł, oceniamy treść po emocjonalnym nagłówku lub liczbie polubień.

W tym modelu manipulacja nie jest zewnętrznym atakiem, lecz wykorzystaniem naszych wewnętrznych błędów poznawczych. Jak zauważa literatura przedmiotu, najskuteczniejsza dezinformacja to taka, którą sami – z przyczyn psychologicznych – chcemy uznać za prawdziwą.

Etyka w cieniu skuteczności

Najbardziej problematycznym aspektem manipulacji politycznej pozostaje jej wymiar etyczny. Choć skuteczność tych działań w dobie cyfrowej jest trudna do podważenia, kluczowe pytanie dotyczy ich dopuszczalności w społeczeństwie demokratycznym.

  • Założenie: Państwo w warunkach zagrożenia ma prawo stosować propagandę, aby chronić swoje interesy i bezpieczeństwo obywateli.
  • Teza: Współczesne narzędzia cyfrowe przesunęły granicę między dopuszczalną perswazją a nieetyczną manipulacją, naruszając autonomię poznawczą jednostki.
  • Dowód: Wykorzystywanie danych behawioralnych do podprogowego wpływania na lęki (Zuboff, 2019) nie jest już tradycyjną „walką o serca i umysły”. To technokratyczna modyfikacja zachowań, która czyni z procesu demokratycznego procedurę sterowaną odgórnie przez algorytmy.

W tym kontekście granica między obroną racji stanu a cyniczną dezinformacją staje się nieostra. Pojawia się fundamentalne pytanie: czy cel uświęca środki, jeśli ceną jest trwałe zniszczenie zaufania do samej idei prawdy?

Odpowiedzialność i przyszłość

W obliczu rosnącej roli mediów społecznościowych, ciężar odpowiedzialności rozkłada się na wielu aktorów. Platformy technologiczne, choć często deklarują neutralność, poprzez swoje algorytmy stają się aktywnymi uczestnikami procesów politycznych.

Przeciwdziałanie manipulacji wymaga działań na trzech komplementarnych poziomach:

  1. Regulacje prawne: Wdrażanie przepisów takich jak AI Act, które wymuszają transparentność algorytmów i oznaczanie treści generowanych przez sztuczną inteligencję.
  2. Odpowiedzialność platform: Modyfikacja modeli biznesowych tak, aby priorytetem była wiarygodność źródeł, a nie tylko czas spędzony w aplikacji.
  3. Edukacja medialna: Budowanie odporności cyfrowej użytkowników. Technologia zawsze będzie o krok przed prawem, dlatego jedyną trwałą barierą dla manipulacji pozostaje krytyczne myślenie.

Podsumowanie

Manipulacje polityczne w mediach społecznościowych to jedno z największych wyzwań współczesności. Przypadek Benjamina Netanjahu i spiralna dezinformacja wokół jego osoby ujawniają głębszy proces: erozję zaufania do rzeczywistości. W świecie, w którym nawet autentyczne dowody mogą zostać uznane za fałsz, celem manipulacji nie jest już tylko sprzedanie konkretnego kłamstwa. Jest nim sprawienie, byśmy przestali wierzyć w cokolwiek, co podważa fundamenty debaty publicznej i uniemożliwia rzetelną weryfikację faktów.

Ostatecznie walka o narrację rozstrzyga się w naszych umysłach. Skuteczność cyfrowej perswazji kończy się tam, gdzie zaczyna się nasza świadoma weryfikacja i krytyczne podejście do konsumowanych treści.


Bibliografia

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132.

Ferrara, E., et al. (2016). The rise of social bots. Communications of the ACM, 59(7), 96–104.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220.

Pariser, E. (2011). The Filter Bubble. Penguin Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Euronews (2026). Netanyahu denies death rumours in social media clip…


Leave a comment