W dobie globalnych sieci społecznościowych nawet największe demokracje stają się polem działania cyfrowych supermocarstw. Za pomocą platform takich jak Facebook, YouTube, Google, TikTok czy X możemy dziś – subtelnie – oddziaływać na nastroje polityczne w innych krajach. Platformy mogą manipulować wyborcami nie poprzez jawne propagandowe hasła, lecz przez drobne sztuczki algorytmiczne. Przeanalizujemy różne metody: od sterowania cenami reklam, przez utrwalanie baniek informacyjnych, aż po cichą demobilizację wybranych grup. Zwrócimy też uwagę na sprzeczność między oficjalną tezą Big Techu („algorytmy są neutralne”) a dowodami, że algorytmy decydują, co widzimy.

Mechanizmy cyfrowej ingerencji

Manipulacja kosztami reklam – Platformy reklamowe takie jak Facebook Ads czy Google Ads działają na zasadzie aukcji. W teorii wszyscy reklamodawcy mają równe szanse, ale w praktyce algorytm może „faworyzować” jednych nad drugimi. Przykładowo, badanie Politecnico di Milano (lipiec 2024) odkryło, że w kampaniach na Facebooku i Instagramie niemiecka skrajna prawica (AfD) uzyskała niemal sześciokrotnie więcej wyświetleń reklam za tę samą kwotę niż mniej radykalni rywale. Oznacza to, że algorytm uczynił ich reklamy dużo tańszymi i efektywniejszymi – sztab skrajnych ugrupowań „kupował” uwagę wyborców praktycznie za grosze. Naukowcy ostrzegają, że gdyby kilka partii systematycznie musiało płacić więcej za podobne reklamy, zaburzałoby to uczciwą konkurencję. W scenariuszu pod płaszczykiem „bezstronności” platformy mogłyby więc po cichu podnosić ceny reklam dla niepożądanych kandydatów, a obniżać je dla własnych sojuszników.

Wzmacnianie baniek informacyjnych – Algorytmy rekomendacyjne karmić mogą użytkowników treściami zgodnymi z ich uprzednimi upodobaniami, tworząc tzw. bańki filtrujące. Oznacza to, że różne grupy wyborców widzą diametralnie różną „rzeczywistość”. Wikipedia definiuje „bańkę informacyjną” jako stan izolacji intelektualnej wynikający z spersonalizowanych wyszukiwań i systemów rekomendacji. Przykładowo, sympatycy konserwatystów mogą codziennie oglądać w feedzie wiadomości zaostrzające ich światopogląd, podczas gdy zwolennicy opozycji widzą odmienne treści. W efekcie nieświadomi wyborcy cementują swoje przekonania, nawet nie dostrzegając kluczowych kontrargumentów. Cyfrowe supermocarstwo może celowo podsycać tę polaryzację: przeczucie, że algorytmy „obiektywnie” pokazują prawdę, sprawia, że ludzie ufają swojej spreparowanej bańce. Tymczasem za kulisami może dochodzić do sterowania, które tematy są pokazywane częściej, a które prawie wcale.

Demobilizacja wybranych grup – Kolejną strategią jest zniechęcanie określonych grup do udziału w wyborach. Wyobraźmy sobie młodych liberałów, którzy nagle widzą w mediach społecznościowych masę demoralizujących komunikatów – porażki opozycji, radykalne przesłania, dezinformację prezentowaną jako fakt. Może to ich zniechęcić do głosowania. Symulację takiego scenariusza mamy już z USA: w styczniu 2024 roku tysiące wyborców w New Hampshire odebrało telefon, na którym „brzmiał” głos Joe Bidena namawiający demokratów, by zaoszczędzili głos na listopadowe wybory, nie biorąc udziału w lokalnych prawyborach. To jednak był fałszywy, komputerowo wygenerowany materiał dźwiękowy – typowy deepfake z użyciem AI. Choć tamten przypadek okazał się prowokacją wewnętrzną, pokazuje on potencjał narzędzia: w teorii każdy głos demokratów mógł zostać poddany demobilizacyjnej manipulacji. Podobnie można by „sfałszować” apel urzędującego polityka czy przejąć oficjalne komunikaty, by kierować nimi na wybrane segmenty elektoratu.

Selektywna promocja i cenzura narracji – Platformy mogą też ukrywać niewygodne treści i promować pożądane narracje. Wyszukiwarki czy sekcje „Trending” mają olbrzymi wpływ na to, które wiadomości trafiają na pierwsze strony, a które giną w głębi internetu. Różne badania udokumentowały, że nawet bez ingerencji człowieka algorytmy mają faworyzujące skłonności. Przykładem jest słynny przypadek Facebooka z 2016 r.: po usunięciu redaktorów odpowiedzialnych za sekcję „Trendów”, automatyczny system zaczął generować absurdalne i fałszywe newsy (m.in. nieprawdziwe historie o Megyn Kelly czy Ann Coulter). Choć ten konkretny wysyp nietrafionych newsów był wypadkiem przy pracy, w scenariuszu zagranicznego wpływu platforma mogłaby świadomie modelować ranking newsów. Na przykład treści sprzyjające danej marionetkowej partii byłyby promowane (wysoko w wynikach), zaś niewygodne raporty z drugiego planu – filtrowane bądź opóźniane. Taka kontrola serwisu może być niewidoczna dla użytkownika, ale skuteczna: nawet niewielka zmiana wagi algorytmu przesuwa skupienia uwagi milionów ludzi.

Zatruwanie danych dla modeli AI („data poisoning”) – Modele językowe, takie jak ChatGPT, Gemini czy Claude, są trenowane na ogromnych zasobach internetu. Jeśli ktoś celowo zacznie publikować fałszywe informacje w pozornie wiarygodnej formie (np. pseudoeksperckie blogi, zmanipulowane raporty, spreparowane cytaty), może doprowadzić do zanieczyszczenia danych uczących. Model przyswaja te przekazy i powtarza je, tworząc wrażenie, że są to ustalone fakty. Efekt? AI zaczyna współtworzyć narrację polityczną korzystną dla konkretnego podmiotu. Użytkownicy pytają o wybory, kandydatów czy historię, a dostają odpowiedzi oparte na dezinformacji ukrytej pod maską obiektywizmu.

Promowanie narzędzi do tworzenia deepfake’ów i propagandy wizualnej – Platformy mogą aktywnie promować dostęp do narzędzi AI tworzących zmanipulowane obrazy, głosy czy filmy. To nie wymaga żadnej oficjalnej decyzji politycznej. Wystarczy, że algorytm częściej poleca takie narzędzia lub nie usuwa ich treści, mimo naruszeń regulaminu. Tym sposobem ułatwia się produkcję i rozprzestrzenianie propagandy wyglądającej na autentyczną. Deepfake prezydenta, memy oczerniające opozycję, spreparowane cytaty ekspertów — wszystko to może szybko stać się viralem. Zadziała to też w sytuacji gdy umożliwi się AI tworzenie treści dotyczących tylko wybranej grupy politycznej.

Manipulacja przez interfejs i ukryte sygnały UX Nie tylko treść się liczy, ale też forma. Algorytmy mogą sterować zachowaniem użytkowników poprzez subtelne zmiany interfejsu.
To cicha inżynieria nastrojów: użytkownik nie wie, że jest zniechęcany, ale jego decyzje są już modulowane.

  • mniej widoczny przycisk „udostępnij” przy treściach politycznych opozycji,
  • neutralne kolory przy niewygodnych newsach,
  • dłuższe czasy ładowania niektórych tematów.

Spersonalizowane podszepty od AI Coraz więcej narzędzi opartych na sztucznej inteligencji (np. chatboty, wyszukiwarki AI) generuje odpowiedzi w czasie rzeczywistym. Platforma może używać AI do subtelnego kształtowania narracji. Przykład: osoba pyta „Czy warto głosować?”. AI może odpowiedzieć: „To nic nie zmieni” lub „To klucz do zmiany” — w zależności od profilu psychologicznego użytkownika.

  • zmieniać ton odpowiedzi (np. ironiczny, podważający, motywacyjny),
  • podsuwać linki tylko z określonych źródeł,
  • sugerować określone decyzje wyborcze.

Opóźnianie treści kluczowych („algorithmic throttling”)Nie zawsze trzeba cenzurować. Czasem wystarczy opóźnić rozchodzenie się danej informacji. W polityce czas jest wszystkim. Nawet krótkie opóźnienie może zneutralizować skuteczność informacji. To forma cenzury przez zaniechanie.

  • news o aferze trafia do feedu dopiero po kilku dniach,
  • materiał wideo ma słabszy priorytet rekomendacyjny,
  • post nie wyświetla się znajomym przez 24h.


Tworzenie pseudoautentycznych kont i mikroinfluencerów Z wykorzystaniem AI można tworzyć konta wyglądające jak prawdziwi obywatele. Są to tzw. „mikroinfluencerzy syntetyczni”, którzy powtarzają kluczowe hasła i wywołują iluzję powszechnej opinii. Algorytmy traktują ich jak realnych ludzi i wzmacniają ich przekazy.

  • z lokalnym slangiem,
  • realistycznymi zdjęciami
  • historią aktywności.

Promowanie łże liderów opinii – algorytmy mogą nadać rozpęd treściom wybranych influencerów, którzy swoją popularność zbudowaną wokół poza politycznych tematów zaczynają wykorzystywać w celach politycznych sącząc narracja korzystne dla jednego nurtu politycznego, a algorytm może popularyzować opinie takiej osoby na wielką skalę.

Algorytmy kontra neutralność – mit czy rzeczywistość?

Od strony marketingowej Big Tech chętnie podkreśla, że „algorytm działa automatycznie” i nie ma ludzkich uprzedzeń. Jednak coraz więcej dowodów podważa tę narrację. Algorytmy – choć matematyczne w zapisie – są zaprojektowane przez ludzi i karmione ludzkimi danymi. Jak zauważa Nishant Shah, kreując mit ich obiektywności, „w rzeczywistości algorytmy (…) realizują zasady segregacji, konsolidacji i profilowania”. Na przykład systemy bezpieczeństwa lotniczego uznają ciało osoby transpłciowej za „anomalny obiekt” – co udowadnia, że rzekomo „neutralne” kody podejmują stronnicze decyzje, faworyzując normę. W kontekście społecznościowym to oznacza, że serwisy same dzielą użytkowników według wąskich schematów – i to bez jawnego nakazu.

Badania naukowe potwierdzają, że to właśnie algorytmy silnie kształtują treści polityczne. Przykładowo, eksperyment z 2023 r. ujawnił, że algorytmy platform społecznościowych mają „ogromny wpływ” na to, co użytkownicy widzą, przy czym prowadzą do istotnej segregacji ideologicznej w serwisach. Innymi słowy, narzędzia te pogłębiają podziały – co stoi w sprzeczności z propagowanym przekazem o neutralnym pośredniku. Nawet wewnętrzne raporty Facebooka przyznawały, że system rekomendacji potęgował polaryzację: jak ujawniono, firma obawiała się nawet modyfikować algorytm, bo „mógłby on sprawić, że treści będą mniej angażujące” (co nawet w konsekwencji miało rzekomo ucieszyć użytkowników o konkretnych poglądach). Jeden ze slajdów zawierał wymowną konstatację: „Nasze algorytmy wykorzystują skłonność ludzkiego mózgu do dywersyfikacji” – czyli karmią użytkowników coraz ostrzejszymi treściami, by zatrzymać ich uwagę.

W praktyce oznacza to, że twierdzenie Big Techu o „bezstronnym algorytmie” to w najlepszym razie półprawda. W każdym rekomendacyjnym silniku istnieje miliard drobnych decyzji (jak wzmacnianie jednych treści, a tłumienie innych), a te mogą być ukierunkowane. Nawet samo „nieingerowanie” jest formą decyzji – ustaleniem reguł, które faworyzują określony typ informacji. Dopóki źródła i parametry algorytmu nie są jawne, trudno powiedzieć, jaki światopogląd on promuje.

Sztuczna inteligencja i personalizowane feedy

Nowa era generatywnej sztucznej inteligencji jeszcze bardziej zwiększa możliwości wpływu. Z jednej strony mamy ogromne bazy danych o użytkownikach, które – dzięki uczeniu maszynowemu – pozwalają na hiperprecyzyjne targetowanie. Platformy mogą wykorzystywać AI do automatycznego profilowania obywateli („kto jest kim”), by indywidualnie dobierać przekaz. Z drugiej strony, sztuczna inteligencja potrafi sama generować treści: obrazy, dźwięki czy teksty na zawołanie. To oznacza, że zagraniczny gracz może wykreować setki wersji tej samej fałszywej informacji – każdej przystosowanej do innej grupy odbiorców.

Niedawne wybory pokazały, jak wykorzystano te narzędzia. W Indiach w 2024 r. szeroko wykorzystywano memów generowanych przez AI. Sprzedawcy na bazarach chwalili się tanią usługą: za niewielkie pieniądze tworzono memy i grafiki wymierzone w lokalnych kandydatów. W efekcie środowiska wyborcze zalały zabawne, ale zmanipulowane treści, szerzące uproszczoną propagandę. Z kolei przykładem działania głębokiej fałszywki (deepfake) była sprawa amerykańska: nagranie głosu „prezydenta Bidena” wzywającego demokratów do bojkotu wyborów było stworzonym komputerowo przy użyciu AI mechanizmem celowanej demobilizacji. Choć ten konkretny przypadek miał charakter eksperymentu, to ukazał, że technologia jest gotowa do ataku: tysiące ludzi mogło go usłyszeć jako prawdziwy komunikat.

Podobne systemy rekomendacji na YouTube, TikToku czy X działają na bieżąco, by wciągać użytkowników w określoną narrację. Osobom oglądającym ekstremalne treści podsuwa się ich więcej – co potwierdził wyciek wewnętrznych danych Facebooka: 64% nowych członków skrajnych grup dołączyło do nich za pośrednictwem rekomendacji algorytmu. W praktyce feed personalizowany przez AI może nie tylko wyświetlać jedną wersję rzeczywistości, ale też wysyłać spreparowane wiadomości wprost do kieszeni konkretnego wyborcy (np. jako reklamy czy powiadomienia).

Feedy personalizowane stają się zatem kluczowym narzędziem. Człowiek nie ma wrażenia propagandy – widzi „swoje” treści. Dzięki sztucznej inteligencji można też budować boty i automatyczne konta, które angażują wybranych użytkowników, udzielają się na forach czy podszywają pod prawdziwych dziennikarzy. Mnożą się więc formy oddziaływania, które dla zwykłego obserwatora są niewidoczne.

Refleksja: zagrożenia i wnioski

Choć powyższy scenariusz brzmi dystopijnie, to nie jest nierealny. Badania naukowe i śledztwa wskazują, że cyfrowe manipulacje już teraz dzielą społeczeństwa i zagrażają równości szans w kampaniach. Uczuleni na to obywatele powinni być świadomi technik „po cichu” kształtujących ich opinie. Raporty, takie jak cytowane badanie z Politecnico di Milano, jednoznacznie podkreślają potrzebę większej przejrzystości platform w kwestii reklam politycznych – tylko wtedy będzie możliwe rozliczenie manipulatorów. Jednocześnie przypominają one, że algorytmy nie są magicznie niezależne od interesów swoich właścicieli. Jak stwierdza jeden z ekspertów, promocja kontrowersyjnych treści to cecha wbudowana w logikę „zwiększania zaangażowania”.

Nie można być również obojętnym wobec relacji między właścicielami platform, a państwem pochodzenia danej platformy. To całkiem realny scenariusz, że państwowe ośrodki decyzyjne mogą używać właściwych do tego instytucji by sterować algorytmami za przyzwoleniem właścicieli. Nie trzeba jednak NSA i specjalnej konsoli gdzieś w tajnym biurze agencji. Wystarczy właściciel platformy, który chce być zaangażowany publicznie w politykę, tak jak Elon Musk – na dalszy plan schodzi czy robi to wyrachowania biznesowego czy z motywacji ideologicznych. Cele jakie sobie stawia sprzyjać mogą pokusie by ręcznie podkręcać działania na własnej platformie

Wnioskiem jest konieczność czujności społeczeństwa i decydentów. Należy krytycznie podchodzić do treści na popularnych platformach, analizować, dlaczego akurat te materiały do nas trafiają, i sprawdzać alternatywne źródła. Transparentność (zgodnie z postulatem badaczy) może pomóc – gdy algorytmy otworzą „czarne skrzynki”, ujawnią się mechanizmy wpływu. Tymczasem edukacja obywateli, media potwierdzające fakty oraz regulacje prawne (np. RODO, Digital Services Act) są narzędziami, które mogą złagodzić potencjalne zniekształcenia. W każdym razie – jak wskazują eksperci – musimy traktować systemy rekomendujące nie jako neutralne skrzynki na wiadomości, lecz jako aktywnych aktorów na scenie politycznej. Dopiero z pełnym zrozumieniem tych mechanizmów zyskamy odporność na manipulacje w epoce cyfrowych wyborów.

Na sam koniec przywołam jeszcze jeden scenariusz. Otóż odwołując się do kwestii: manipulacji kosztami reklam, zauważę że możliwy jest scenariusz gdzie grupa interesu A sponsoruje pieniędzmi wielkie kampanie profrekwencyjne lub wprost polityczne mające na celu wpłynąć na wybory w państwie B, a państwo C wpływa na właściciela platformy by ten oskubał grupę interesu A, pozwalając wprawdzie na dalszą emisję reklam, ale robiąc to w sposób zafałszowany. W końcu nikt nie wie czy w panelu reklamowym faktycznie każde wyświetlenie odbyło się w ogóle albo do danej grupy docelowej.