Vademecum

Ideą vademecum jest wprowadzenie czytelnika w problematykę zagrożeń związanych z manipulacją informacją. Począwszy od zaznajomienia go z podstawowymi pojęciami, po zrozumienie bardziej skomplikowanych zjawisk i technik dezinformacji. Autorzy skupili się przede wszystkim na aspekcie logicznym – wyjaśnieniu technik manipulacji. Celem jest zrozumienie systemowych skutków dezinformacji i przełożenie tej wiedzy na praktyczne umiejętności, takie jak samodzielna weryfikacja informacji, zauważanie sygnałów ostrzegawczych, czy bardziej miękkie, jak rozwinięcie intuicji, świadomości i krytycznego myślenia.

Definicje i rodzaje

Dezinformacja i mylne informacje

Dezinformacja i mylne informacje (misinformacja) to przekazy oparte na fałszywych lub zmanipulowanych informacjach. Podstawowym kryterium, na podstawie którego można wskazać różnice pomiędzy tymi dwoma pojęciami jest intencja i motywacja

Dezinformacja jest działaniem celowym, w którym sprawca ma zamiar wyrządzenia szkody odbiorcy. Ta szkoda może polegać na skłonieniu odbiorcy lub grupy odbiorców do określonych działań, które są niezgodne z ich wartościami i interesami. Motywacją sprawcy jest chęć odniesienia korzyści politycznej lub materialnej.

Mylna informacja (misinformacja), to fałszywa lub zmanipulowana informacja powielona w sposób nieświadomy bez intencji wyrządzenia szkody. 

Triadę nieładu informacyjnego dopełnia malinformacja. Jest to prawdziwa informacja wykorzystywana w sposób szkodliwy lub złośliwy, w celu wyrządzenia krzywdy. Często towarzyszy jej manipulacja kontekstem oraz celowe pominięcie istotnych faktów. Szczególnym przykładem malinformacji jest tzw. doxing – dane wrażliwe publikowane bez zgody ofiary, naruszające jej prawo do prywatności.

Obca ingerencja i manipulacja w środowisku informacyjnym (FIMI)

Obca ingerencja i manipulacja w środowisku informacyjnym (ang. Foreign Information Manipulation and Interference – FIMI) dotyczy zjawiska wychodzącego poza pojęcie dezinformacji i stanowi wielowymiarowe wyzwanie, charakterystyczne dla kategorii zagrożeń w erze cyfrowej. 

Według Europejskiej Służby Działań Zewnętrznych, jest to wzorzec zachowania, który przeważnie nie jest nielegalny, ale zagraża lub może potencjalnie negatywnie wpłynąć na wartości, procedury i procesy polityczne. 

Definicja FIMI łączy dwa główne elementy: (1) obcą ingerencję; (2) manipulację informacją, które stosowane są w przestrzeni informacyjnej – zarówno cyfrowej (cyberprzestrzeń), jak i tradycyjnej (telewizja, gazety, przestrzeń publiczna). Manipulacje informacyjne dotyczą sfery społecznej – mają na celu wpływ na emocje, postawy, decyzje i zaufanie obywateli do instytucji publicznych. Znaczna część kampanii FIMI wykorzystuje legalne kanały komunikacji – posty w mediach społecznościowych, artykuły, filmy, komentarze. 

Takie działania mają charakter manipulacyjny i nieautentyczny (nieorganiczny) i są prowadzone w sposób celowy i skoordynowany. Pojedyncze przejawy FIMI – fragmenty szerszych incydentów – zazwyczaj nie łamią prawa. Sprawcami stosującymi FIMI (aktorami) mogą być zagraniczne podmioty państwowe lub niepaństwowe oraz powiązane z nimi podmioty – wykonawcy powiązani z nimi organizacyjnie lub finansowo i działający w ich imieniu (proxies). Strategiczne cele FIMI są długofalowe, systemowe (online i offline) i stanowią problem globalny. Te cele obejmują głównie destabilizację, osłabienie zaufania do instytucji demokratycznych np. przez ingerencję w procesy wyborcze. 

FIMI definiuje się poprzez wzorce zachowań (pattern of behaviour), a nie tylko treść komunikatów. Dlatego badania i analizy tego zagrożenia koncentrują się na taktykach, technikach i procedurach (TTP). Podstawowe techniki stosowane przez adwersarza opisuje model 5D

  1. Dyskredytować (Dismiss) – podważyć fakty, zniszczyć reputację, odrzucić argument przez kwestionowanie źródła (np. fałszywe doniesienia o zakupie willi przez prezydenta Ukrainy);
  2. Deformować (Distort) – zniekształcić, przekręcić narrację, zmienić znaczenie informacji przez zmianę kontekstu (np. gloryfikacja ZSRR z pominięciem represji, okupacji i zbrodni);
  3. Dezorientować (Distract) – odwrócić uwagę od głównego problemu, kierować dyskurs na poboczne tematy (np. rosyjska dezinformacja wokół zestrzelenia cywilnego samolotu MH17);
  4. Demoralizować (Dismay) – zastraszać, zniechęcać, podkopywać poczucie sprawczości odbiorców (np. doxing, transnarodowe represje);
  5. Dzielić (Divide) – skłócać, pogłębiać i tworzyć podziały, polaryzować społeczność (np. wokół tematów jak szczepionki; problemy geopolityczne).

Problem FIMI w znacznym stopniu pokrywa się z pojęciem dezinformacji, ale nie każda dezinformacja jest FIMI, a FIMI to nie tylko dezinformacja.

Rodzima ingerencja i manipulacja w środowisku informacyjnym (DIMI)

W oparciu o definicję FIMI można scharakteryzować zjawisko rodzimej ingerencji i manipulacji w środowisku informacyjnym (ang. Domestic Information Manipulation and Interference – DIMI), które różni się przede wszystkim pochodzeniem sprawców oraz niektórymi celami strategicznymi. Aktorami DIMI mogą być podmioty krajowe, np. środowiska powiązane z partiami politycznymi, grupy interesu, media krajowe), a ich celem jest manipulacja opinią publicznej na rzecz określonych opcji politycznych.

„cienka granica między clickbaitem a dezinformacją”

Istotną cechą współczesnych manipulacji informacyjnych jest zatarcie granic między zagranicznymi a krajowymi operacjami – krajowe podmioty DIMI mogą być inspirowane lub wspierane przez zewnętrznych aktorów. Coraz częściej obce państwa i podmioty starają się nadać swojej ingerencji cechy określonych aktorów krajowych – niekiedy podszywając się np. pod wyborców konkurujących partii politycznych – aby wprowadzać zamęt, zatruwać dyskurs, radykalizować i pogłębiać polaryzację.


Skoordynowane i nieautentyczne zachowanie w sieci (CIB) 

Skoordynowane i nieautentyczne zachowanie w sieci (ang. Coordinated Inauthentic Behaviour – CIB) to zespół zachowań, w ramach którego występują dwa zasadnicze aspekty: 

  1. Koordynacja: działalność jest prowadzona za pośrednictwem sieci kont lub stron wykorzystujących środowisko mediów społecznościowych. 
  2. Nieautentyczność: złośliwy podmiot ukrywa swoją prawdziwą tożsamość, lokalizację lub cel.

CIB ma przede wszystkim zorganizowany, celowy, manipulacyjny charakter i podobnie jak dezinformacja jest używany z intencją wyrządzenia szkody. CIB jest podstawową techniką używaną przez aktorów FIMI w operacjach informacyjnych. Polega ona na fałszywym rozpowszechnianiu i wzmacnianiu treści w sposób skoordynowany i nieorganiczny tj. niewytworzony przez prawdziwych użytkowników – uczestników lokalnego dyskursu. Pojęcie CIB kładzie nacisk na sposób prowadzenia działań, a nie na treść informacji, która nie musi być fałszywa. Manipuluje odbiorcą np. wprowadzając w błąd odbiorcę co do popularności danej informacji; manipulując interpretacją przez pominięcie istotnych faktów i dodanie fałszywego kontekstu.

Nie ma jednej ustalonej definicji CIB. Termin ten został pierwszy raz zastosowany przez Facebooka w 2018 r., a każda z popularnych platform społecznościowych posługuje się własnymi definicjami zjawiska. Dystrybucja fałszywych treści i nieautentyczna aktywność w zakresie ich promocji dotyczy głównie środowiska platform cyfrowych. CIB jest pojęciem kluczowym dla zrozumienia współczesnego zagrożenia dezinformacją. 

Przeciwdziałanie dezinformacji a wolność słowa

Przeciwdziałanie dezinformacji może kojarzyć się z ograniczaniem nieprawdziwych treści w przestrzeni informacyjnej i budzić obawy społeczne związane z cenzurą. Dylemat, jak skutecznie przeciwdziałać dezinformacji i jednocześnie chronić wartości demokratyczne, takie jak wolność słowa, jest podstawową kwestią rozważaną przez instytucje publiczne. 

Wolność słowa jest wartością chronioną przez najwyższy akt prawny, który stanowi Konstytucja RP: 

  • Art. 14. Rzeczpospolita Polska zapewnia wolność prasy i innych środków społecznego przekazu.
  • Art. 54. 1. Każdemu zapewnia się wolność wyrażania swoich poglądów oraz pozyskiwania i rozpowszechniania informacji. 2. Cenzura prewencyjna środków społecznego przekazu oraz koncesjonowanie prasy są zakazane. Ustawa może wprowadzić obowiązek uprzedniego uzyskania koncesji na prowadzenie stacji radiowej lub telewizyjnej.

Polska jest stroną Europejskiej Konwencji Praw Człowieka, której artykuł 10 gwarantuje prawo do wolności wypowiedzi i odbioru informacji, pod warunkiem, że ograniczenia są przewidziane ustawą i niezbędne w demokratycznym społeczeństwie (bezpieczeństwo, ochrona dóbr osobistych, porządek publiczny). Tak więc, wszelkie ograniczenia wolności słowa są jasno określone w ustawach, takich jak Kodeks karny, Prawo prasowe, Ustawa o radiofonii i telewizji. 

W powyższym zestawieniu widoczny jest brak ustawy precyzującej zasady wolności słowa w cyberprzestrzeni. Brak regulacji mediów społecznościowych, które są znacznym obszarem środowiska informacyjnego, stanowi zagrożenie dla wolności słowa i wyzwanie dla instytucji publicznych, których zadaniem jest ochrona praw obywatelskich. Środowisko mediów społecznościowych jest wykorzystywane przez aktorów FIMI i DIMI do zniekształcania debaty publicznej poprzez manipulacje informacjami i nieautentyczne rozpowszechnianie oraz wzmacnianie korzystnych dla nich narracji. Takie działania zabierają przestrzeń prawdziwym użytkownikom do wyrażania swoich poglądów i opinii. 

Pośrednio wolność słowa jest chroniona przez zapisy Europejskiego Aktu o Usługach Cyfrowych (ang. Digital Services Act – DSA). DSA jednoznacznie zabrania nakładania na platformy ogólnego obowiązku prewencyjnego filtrowania czy moderowania wszystkich publikowanych treści. Odpowiada to zakazowi cenzury prewencyjnej gwarantowanemu w Konstytucji RP. Usuwane są wyłącznie treści nielegalne zgodnie z prawem krajowym lub unijnym – nie ma nakazu automatycznego usuwania treści szkodliwych, lecz legalnych. 

DSA wymaga od platform przeprowadzania ocen ryzyka, w jaki sposób ich usługi są wykorzystywane do rozpowszechniania lub wzmacniania wprowadzających w błąd treści i prowadzenia operacji informacyjnych. Po drugie platformy muszą dysponować mechanizmem reagowania kryzysowego – środki, które należy podjąć, gdy platforma jest wykorzystywana do nagłego rozpowszechniania dezinformacji. Po trzecie, w akcie o usługach cyfrowych uznaje się rolę, jaką reklamy ukierunkowane mogą odgrywać w rozpowszechnianiu dezinformacji.

Oprócz przepisów ograniczających reklamy ukierunkowane, DSA wymaga od platform prowadzenia publicznego repozytorium reklam. Repozytoria te pomogą naukowcom w badaniu pojawiających się zagrożeń, takich jak kampanie dezinformacyjne, które negatywnie wpływają na zdrowie publiczne, bezpieczeństwo, dyskurs obywatelski, udział w życiu politycznym lub równość praw (DSA Art 39, Art 40).

Również definicja FIMI nie określa tego, co jest dezinformacją, a co opinią. Zamiast tego skupia się na zachowaniu (celowe, skoordynowane, o manipulacyjnym charakterze), a nie na treści szerzonych narracji i komunikatów. 

Ostatnim działaniem mającym na celu zabezpieczenie wolności słowa przed dezinformacją jest budowanie odporności społecznej. Podstawową ideą tego podejścia jest zwiększanie świadomości obywateli i ograniczanie potrzeby regulacji przez instytucje publiczne. 

Cele dezinformacji

Poza opisaną wcześniej intencją wyrządzenia szkody i motywacją osiągnięcia korzyści politycznej lub materialnej, dezinformacja obliczona jest na wywołanie określonych efektów wśród grupy odbiorców. Spośród nich można wyróżnić najczęstsze cele:

  • Wywoływanie paniki i strachu poprzez fałszywe informacje o katastrofach czy zagrożeniach zdrowotnych. Takie techniki manipulacji są stosowane często w sytuacjach kryzysowych, by zwiększyć chaos oraz wykorzystać trudne okoliczności i rozproszenie uwagi służb i instytucji publicznych. 
  • Polaryzacja społeczna poprzez wzmacnianie antagonizmów między różnymi grupami społecznymi. Społeczeństwo podzielone i skrajnie spolaryzowane jest bardziej podatne na dezinformację, gdyż polaryzacja utrudnia prowadzenie rzetelnej debaty publicznej. 
  • Osłabianie zaufania do autorytetów i instytucji publicznych poprzez krytykę demokratycznego systemu wartości, podważanie dorobku nauki, teorie spiskowe. 
  • Zakłócanie i wpływanie na procesy polityczne poprzez manipulację opinią publiczną w okresach poprzedzających wybory, referenda lub inne ważne wydarzenia, jak np. igrzyska olimpijskie. 
  • Zniekształcanie debaty publicznej poprzez promowanie postaw i poglądów sprzyjających aktorowi dezinformacji, które nie są organicznymi poglądami w danej społeczności. 
  • Zniesławienie osób publicznych i aktywistów poprzez publikowanie nieprawdziwych informacji, deepfake’ów, doxing lub uporczywe nękanie w sieci. 

Typowe narracje dezinformacyjne odwołują się do następujących motywów: 

  • nadchodzi upadek – np. społeczeństwa zachodnie lub państwa demokratyczne stoją na krawędzi upadku;
  • my kontra oni – np. elity kontra zwykli ludzie;
  • utrata suwerenności – państwa trzecie, organizacje międzynarodowe albo „tajne organizacje spiskowe” mają kontrolę nad polityką i tożsamością danego narodu;
  • zagrożone wartości – np. rodzina, tożsamość narodowa, granice państwowe.

Często dystrybucji takich narracji towarzyszy stosowanie taktyki „hahaganda”. Określa ona materiały audiowizualne oraz komunikaty będące kpiną, bagatelizujące poważne tematy, normalizujące skrajności; np. memy o ukraińskich uchodźcach, obśmiewanie pomocy humanitarnej.


Metody zatruwania przestrzeni informacyjnej:

Elementy tworzące ekosystem dezinformacyjny:

© European Union 2025, 3rd EEAS Report on Foreign Information Manipulation and Interference Threats
© European Union 2025, 3rd EEAS Report on Foreign Information Manipulation and Interference Threats

Ekosystem dezinformacyjny zawiera zróżnicowane i wzajemnie powiązane elementy operacyjne, m.in.:

  1. pranie dezinformacji, ukrywanie jej pochodzenia w celu uniknięcia detekcji i atrybucji, pseudoportale udające niezależne media zachodnie (zob. Fałszywa Fasada), opłacanie pozornie niezależnych influencerów i dziennikarzy, tworzenie fałszywych lub zmanipulowanych artykułów i materiałów audiowizualnych (np. deepfake);
  2. klonowanie stron internetowych znanych mediów i podszywanie się pod wiarygodne źródła informacji, zob. Doppelgänger;
  3. zatruwanie czatbotów i dostarczanie gotowych „źródeł” komunikatów dezinformacyjnych dla podmiotów szerzących dezinformację, np. Portal Kombat znany też jako Sieć Pravda;
  4. nieautentyczna dystrybucja i wzmacnianie narracji poprzez sieci kont manipulujących algorytmem rekomendacji platform cyfrowych.

Skutki dezinformacji

Chociaż ciężko jest dokładnie zmierzyć wpływ dezinformacji na rzeczywistość, jej skutki wykraczają daleko poza sferę cyfrową. Mogą prowadzić do realnych szkód w życiu jednostek, destabilizacji społeczeństwa i zakłócenia procesów demokratycznych.


Rola platform społecznościowych w procesie ludobójstwa i zbrodni przeciwko ludzkościprzykład Mjanmy.

Przed Międzynarodowym Trybunałem Sprawiedliwości toczy się postępowanie w sprawie popełnienia zbrodni ludobójstwa przez wojska Mjanmy na muzułmańskiej mniejszości Rohingja w 2017 r. Szacuje się, że tylko w 2017 r. działania wojsk doprowadziły do 25 tys. zgonów i ucieczki 740 tys. uchodźców. Zbrodnie ludobójstwa i zbrodnie przeciwko ludzkości nie dzieją się nagle i niespodziewanie. Stanowią długotrwały proces, którego punktem kulminacyjnym są masowe egzekucje, przymusowe przesiedlenia, tortury i przemoc seksualna wymierzone w konkretną grupę. 

Kluczową rolę w procesie przygotowywania wojsk Mjanmy do popełnienia masowych zbrodni na Rohingja odegrał Facebook: 

  1. Dehumanizacja: platforma pozwoliła na rozprzestrzenianie się tysięcy postów określających Rohingja jako „psy”, „robaki”, „gwałcicieli”, którzy powinni zostać „wytępieni”.
  2. Hostowanie dezinformacji: wojsko Mjanmy tworzyło fałszywe konta, które w rzeczywistości były frontami do szerzenia nienawiści przeciwko Rohingja.
  3. Algorytmy Facebooka wzmacniały i promowały treści wzywające do przemocy przeciwko Rohingja już od 2012 r.

Misja Faktograficzna ONZ w sprawie Mjanmy stwierdziła jednoznacznie, że Facebook miał znaczącą rolę w procesie zbrodni na Rohingya. Była to pierwsza i najbardziej autorytatywna analiza, ustanawiająca nowy standard dla oceny odpowiedzialności platform mediów społecznościowych za ich rolę w konfliktach zbrojnych i naruszeniach praw człowieka. Ustalenia Misji stały się później podstawą dla pozwów wytoczonych przeciwko Meta – firmie, do której należy Facebook. Biorąc pod uwagę, że Facebook w tamtym czasie był najpopularniejszą platformą w Mjanmie, odegrał podobną rolę, jak radio podczas zbrodni ludobójstwa w Rwandzie w 1994 r. 

Skutki zdrowotne – dezinformacja medyczna 

Dezinformacja medyczna prowadzi do unikania skutecznych metod leczenia, promowania niebezpiecznych „alternatyw” i podważania zaufania do opieki medycznej, co ma bezpośrednie przełożenie na zwiększoną śmiertelność i zachorowalność.

Według analizy przeprowadzonej przez WHO i UNICEF w 2024 r. w regionie europejskim odnotowano 127 350 przypadków odry, co stanowi dwukrotny wzrost w stosunku do liczby przypadków zgłoszonych w 2023 r. i najwyższą liczbę od 1997 r. Odra stanowi poważne zagrożenie dla zdrowia, może skutkować ciężkimi powikłaniami po wyleczeniu lub prowadzić do śmierci. Od kilku lat w Europie występuje zauważalny trend zmniejszania odporności populacyjnej przez większy odsetek dzieci niezaszczepionych. 

Powyższe dane lekarze i eksperci łączą z problemem dezinformacji medycznej. Jedna z tez przekazów dezinformacyjnych głosi, że szczepionka przeciwko odrze powoduje autyzm. Nie ma rzetelnych badań klinicznych, które udowodniłyby prawdziwość tej tezy. Jest natomiast szereg badań, które udowodniły, że nie ma związku między szczepionką na odrę, a autyzmem. 

Skutki ekonomiczne 

Klasyczne operacje dezinformacyjne prowadzone przez państwa jako narzędzie wpływu powodują istotne szkody ekonomiczne, które są jednak znacznie trudniejsze do precyzyjnego oszacowania niż straty wynikające z dezinformacji korporacyjnej, oszustw i manipulacji giełdowych. Trudno jest zmierzyć rzeczywiste koszty gospodarcze dezinformacji, gdyż jej skutki są wielowymiarowe.

Najdokładniejsze dostępne wyliczenia dotyczą kosztów dezinformacji zdrowotnej, szczególnie pandemii COVID-19, której towarzyszyła infodemia dot. pochodzenia wirusa oraz szczepionek. Według Johns Hopkins Center for Health Security, całkowite dobrowolne nieszczepienie się przeciwko COVID-19 powodowało co najmniej 1 miliard dolarów szkód dziennie w Stanach Zjednoczonych od czasu powszechnej dostępności szczepionek. 

Abstrahując od konkretnych liczb niebezpośrednie skutki dezinformacji są długoterminowe i trudne do precyzyjnego określenia. Jednym z celów dezinformacji jest osłabienie zaufania do instytucji publicznych, wzmacnianie polaryzacji i strachu, zakłócanie procesów politycznych, a w efekcie osłabienie państw i społeczeństw. Współczesna nauka nie dysponuje jeszcze wskaźnikami do pełnego skwantyfikowania powyższych procesów.

Rola mediów społecznościowych 

Jedną z metod dystrybucji i wzmocnienia zasięgu komunikatów dezinformacyjnych jest manipulacja algorytmami rekomendacji mediów cyfrowych (m.in. Facebook, YouTube, X, TikTok).

Media cyfrowe działają w ramach „ekonomii uwagi” (attention economy), w której uwaga i czas użytkowników są traktowane jako towary. Algorytmy mediów społecznościowych działają jako filtr informacji dla miliardów ludzi na świecie. Decyzje o tym, co widzimy w naszych strumieniach rekomendowanych treści (feed), podejmują automatyczne systemy zaprojektowane przede wszystkim do maksymalizacji zaangażowania użytkowników, a nie jakości lub prawdziwości informacji. Nie są one zaprojektowane do oceny jakości materiału czy jego zgodności z faktami. Mają jedynie ocenić z jakim prawdopodobieństwem dana treść przykuje uwagę użytkownika, utrzyma jego zaangażowanie i skłoni do reakcji – to przekłada się na zysk platformy cyfrowej m.in. z reklam. Treści kontrowersyjne, szokujące i emocjonalne są bardziej efektywne, generują znacznie więcej zaangażowania niż treści umiarkowane czy oparte na faktach, co tworzy warunki sprzyjające rozprzestrzenianiu dezinformacji. 

Struktura mediów społecznościowych stanowi złożony system sprzyjający dystrybucji dezinformacji, który działa na wielu poziomach:

  1. Techniczny: algorytmy rekomendacji faworyzują treści emocjonalne i polaryzujące, niezależnie od ich wiarygodności. Operacje FIMI manipulują tym poprzez skoordynowane sieci nieautentycznych użytkowników;
  2. Psychologiczny: systemy personalizacji treści (dostosowania do preferencji użytkownika) wykorzystują ludzkie mechanizmy poznawcze – efekt pierwszej ekspozycji, polaryzację i selektywną percepcję – utrudniając użytkownikom poprawną ocenę informacji;
  3. Operacyjny: atakujący celowo wykorzystuje algorytmy poprzez m.in. mikrotargetowanie (np. za pośrednictwem usług reklamowych META i Google), synchronizację rozpowszechniania, ukrywanie źródła treści, aby zmaksymalizować zasięg szkodliwych komunikatów zanim zostaną wykryte przez mechanizmy bezpieczeństwa i (ewentualnie) usunięte.

Komory echa i bańki informacyjne

Bańki informacyjne odnoszą się do sytuacji, w której algorytmy personalizują treści dla poszczególnych użytkowników na podstawie ich wcześniejszych zachowań. Tworzą one ograniczony ekosystem medialny na poziomie indywidualnym. Użytkownicy mediów społecznościowych widzą niekompletny obraz spektrum treści publikowanych na platformie, gdzie treści mogące zakwestionować lub przeciwstawić się ich przekonaniom są pomijane. 

Komory echa odnoszą się do sytuacji, gdzie ludzie łączą się w sieci społeczne z innymi o podobnych poglądach, tworząc grupy, które wzmacniają istniejące przekonania i utrudniają ekspozycję na przeciwstawne perspektywy. 


Monetyzacja dezinformacji i mylnych informacji (misinformacji)

Monetyzacja dezinformacji to proces, w którym tworzenie, rozprzestrzenianie i wzmacnianie fałszywych lub wprowadzających w błąd treści generuje bezpośrednie przychody finansowe dla różnorodnych podmiotów – od twórców treści, przez platformy cyfrowe, po przypadkowych uczestników ekosystemu reklamowego.

NewsGuard obliczył, że 1,68% budżetów na reklamę cyfrową jest przekierowywane do stron z treściami dezinformacyjnymi – 2,4 miliarda dolarów tylko w USA i prawie 6 miliardów dolarów na całym świecie.

W jaki sposób dezinformacja może generować przychody?

Dezinformacja to dochodowy biznes, który zarabia głównie na reklamach internetowych, wykorzystując fakt, że szokujące, fałszywe treści generują więcej kliknięć niż nudna prawda. System reklamy internetowej jest tak nietransparenty, że firmy nie są świadome, gdzie wyświetlane są ich reklamy. Clickbaitowe strony generują większy ruch użytkowników sieci, co przekłada się na większy zysk z reklam dla właściciela strony. 

Zarabiać na dezinformacji mogą również influencerzy, którzy prowadzą kanały na YouTube lub innych platformach. Oni również mogą czerpać przychody z reklam pod swoimi filmami lub poprzez akcje crowdfundingowe „Pomóż mi walczyć z systemem – wpłać darowiznę”, płatne subskrypcje i treści premium. 

Siewcy i wzmacniacze

W ekosystemie dezinformacji w mediach społecznościowych istnieje podział ról między kontami, które inicjują rozprzestrzenianie treści (siewcami, ang. seeders) a tymi, które amplifikują jej zasięg (wzmacniaczami, ang. amplifiers).

Po tym jak siewcy opublikują fałszywe lub zmanipulowane treści, trolle i boty używają fałszywych profili do udostępniania dezinformacji na różnych sieciach społecznościowych, aby sztucznie podnieść metryki zaangażowania. W ten sposób oszukują algorytmy platform i sprawiają, że treść wygląda na viralową. 

Istnieją różne rodzaje siewców:

  • fałszywe portale informacyjne (podszywające się lub przypominające uznane media): tworzone masowo przez złośliwe podmioty, aby zapewniać anonimowość wprowadzania treści w sieci. Podczas kampanii dezinformacyjnych „wyrastają, mnożą się i rosną”, obfitując w zmanipulowane artykuły i fake newsy. Po kampanii albo znikają, albo stają się nieaktywne do następnej kampanii.
  • pseudo media i fałszywe wydawnictwa: Osobiste konta powiązane z mediami o niskiej wiarygodności (pseudoportale), które często stanowią pierwotne źródła dezinformacji.
  • Konta botów i trolli: Zautomatyzowane lub ręcznie kontrolowane konta, które publikują i rozpowszechniają dezinformację w określonych momentach.

Oraz różne rodzaje wzmacniaczy:

  • Konta botów: zautomatyzowane lub ręcznie kontrolowane sieci kont reagujące na dezinformację w sposób skoordynowany;
  • Prawdziwi lub fałszywi użytkownicy i influencerzy: rozprzestrzeniają i legitymizują dezinformację (trudność w jednoznacznej ocenie intencji).

 

Dezinformacja wykorzystująca ekosystem reklamy cyfrowej

Przykłady nadużyć dużych platform społecznościowych: 

  1. Systemowe problemy z procedurami weryfikacji klientów: Duże platformy mediów społecznościowych nie wymuszają obowiązkowej weryfikacji tożsamości reklamodawców. Procedury weryfikacji pozostają opcjonalne i łatwe do obejścia. Oszukańcze reklamy docierają do milionów użytkowników, zanim zostaną usunięte (lub w ogóle nie są usuwane) [zob. szerzej: https://cert.pl/posts/2025/03/ewaluacja-oczekiwan-wobec-meta/ oraz
    https://web.archive.org/web/20240416201545/https://www.reset.tech/documents/24102023_Networks-of-Facebook-Fake-Advertisers_Reset.pdf]
  2. Zysk ważniejszy niż bezpieczeństwo użytkowników, kary są wpisane w koszty: Platformy mediów społecznościowych działają w modelu biznesowym opartym na maksymalizacji zysku z reklam, który jest rozbieżny z bezpieczeństwem użytkowników. Kary są kosztem operacyjnym korporacji, nałożone przez regulatorów stanowią ułamek rocznych przychodów i są wkalkulowane w budżet operacyjny. Nie skłaniają do poprawy systemów zabezpieczeń platform.
  3. Operacje Portal Kombat, Doppelgänger wykorzystują ekosystem reklamowy platform cyfrowych do dystrybucji dezinformacji.
  4. Media społecznościowe stały się głównym kanałem rozpowszechniania dezinformacji. Algorytmy platform społecznościowych promują treści wywołujące silne emocje, co zwiększa zaangażowanie użytkowników, ale jednocześnie sprzyja rozprzestrzenianiu się fałszywych informacji.

Brak transparentności

Mechanizmy działania algorytmów pozostają w sferze tajemnic firm technologicznych (DSA ma to zmienić, ale wywołuje to opór wielkich korporacji cyfrowych).

Ile ruchu w sieci jest rzeczywiście wytworzone przez ludzi? 

W 2024 r. ruch automatyczny w sieci przewyższył aktywność ludzką, osiągając 51% całego globalnego ruchu internetowego, z czego 37% stanowią złośliwe boty (Imperva 2025). Ten wzrost napędza szeroka dostępność narzędzi sztucznej inteligencji, które obniżyły barierę wejścia dla cyberprzestępców oraz podmiotów realizujących operacje manipulacji informacyjnej i dezinformacji. Co istotne – te statystyki nie obejmują mediów społecznościowych (np. Facebook, YouTube), gdyż Imperva mierzy ruch na poziomie infrastruktury internetowej, a nie wewnątrz platform. Co więcej, same platformy nie są transparentne w tym zakresie – nie udostępniają danych badaczom w sposób, który umożliwiłby bezstronną ocenę efektywności mechanizmów zabezpieczających przed skoordynowanymi i nieautentycznymi zachowaniami (CIB).

Wg raportu Reuters Meta zarobiła 16 mld USD w 2024 r. na wprowadzających w błąd reklamach. Korporacja usuwa szkodliwe reklamy, tylko jeśli algorytm oznaczy je jako takie z 95% pewnością – jeśli wskaźnik jest niższy, pobiera większą opłatę za dystrybucję oszustw. Z tej samej infrastruktury korzystają podmioty prowadzące agresję informacyjną motywowaną politycznie – Meta nie ma biznesowego powodu, aby efektywnie blokować dezinformację, jeśli zarabia na manipulacji. Działania raportowane przez platformę mają głównie funkcję wizerunkową i nie prowadzą do realnego ograniczenia skali zagrożeń.

Podmioty komercyjne oferujące fałszywe działania w mediach społecznościowych, za ułamek kosztów tradycyjnych kampanii reklamowych, generują masową, trudną do wykrycia aktywność. W ramach eksperymentu przeprowadzonego przez badaczy z NATO StratCom COE w 2024 r. za 58 euro zakupiono 1150 fałszywych komentarzy, 11 725 polubień, 3150 udostępnień i 8233 wyświetlenia na sześciu platformach społecznościowych. 93% zakupionych interakcji zostało dostarczonych w ciągu 24 godz., a ponad 96% pozostało aktywnych po czterech tygodniach.

Rosnący udział złośliwych botów w globalnym ruchu ujawniony w raportach Impervy oraz dostępność usług masowej manipulacji w mediach społecznościowych opisana w raporcie NATO potwierdzają, że platformy społecznościowe nie rozwijają mechanizmów wykrywania i usuwania sieci botów manipulujących dyskursem. Boty stanowią instrument operacji wpływu i toksycznych kampanii politycznych. W badaniu Global Risks Perception Survey Światowego Forum Ekonomicznego dezinformacja i rozpowszechnianie mylnych informacji zajęły pierwsze miejsce wśród najgroźniejszych globalnych ryzyk krótkoterminowych na lata 2025–2026. Co więcej mają one synergiczny związek z pozostałymi kluczowymi ryzykami, m.in. wzrostem polaryzacji społecznej, erozją praw człowieka i praw obywatelskich oraz cyberatakami.

Dezinformacja jako usługa komercyjna 

Dezinformacja komercyjna stanowi szeroką kategorię obejmującą różnorodnych aktorów i działalność polegającą na promocji fałszywych, wprowadzających w błąd lub zmanipulowanych treści, z zamiarem wprowadzenia w błąd lub wyrządzenia szkody. Jest napędzana głównie motywem korzyści finansowych. Podmioty podejmujące się tego typu działalności realizują usługi na rzecz oszustów, przestępców, nieuczciwych firm oraz podmiotów państwowych.

Można wyróżnić dwa zasadnicze modele biznesowe (zob. raport ISD):

Dezinformacja jako usługa komercyjna, to działalność firm podobnych do tradycyjnych agencji marketingowych. Takie podmioty oferują kompleksowe kampanie dezinformacyjne na zlecenie – dla rządów, polityków bądź przedsiębiorstw. Model ten pozwala klientom unikać bezpośredniej odpowiedzialności za rozpowszechnianie fałszywych informacji, poprzez pozorny status zamawiającego usługę od legalnej agencji komunikacyjnej. 

Zob. szerzej: Nosthoff, A.-V., & Maschewski, F. (2023). The platform economy’s infrastructural transformation of the public sphere: Facebook and Cambridge Analytica revisited. Philosophy & Social Criticism, 50(1), 178-199. https://doi.org/10.1177/01914537231203536 (Original work published 2024)

W ostatnich latach rozwinął się sektor podmiotów prywatnych oferujących fałszywe konta, usługi sieci botów, obrót skradzionymi danymi; phishing, doxing i kradzieże określonych kont na zlecenie; usługi w zakresie fałszywych reakcji w mediach społecznościowych (m.in. polubienia, komentarze i inne reakcje wpływające na algorytmy rekomendacji platform). Przykładem jest działalność wietnamskiej firmy Min Software – oferuje ona kompleksowe oferty manipulacji w mediach społecznościowych, w tym gotowe pakiety zweryfikowanych przez platformę kont oraz usługi w zakresie manipulacji informacyjnej dla różnych klientów – niezależnie od ich motywacji. Tego rodzaju działalność demonstruje profesjonalizację i komercjalizację usług w zakresie dezinformacji.

Zob. szerzej: Lindquist, J., & Weltevrede, E. (2024). Authenticity Governance and the Market for Social Media Engagements: The Shaping of Disinformation at the Peripheries of Platform Ecosystems. Social Media + Society, 10(1). https://doi.org/10.1177/20563051231224721

Socjotechniki, perswazja i błędy poznawcze

Chociaż krytyczne myślenie stanowi pierwszą linię obrony przed dezinformacją, punktem wyjściowym powinna być świadomość uwarunkowań ludzkiego umysłu, które mogą tworzyć podatności na dezinformację. Poniżej omówimy najczęstsze błędy poznawcze, uproszczone reguły wnioskowania (heurystyki), a także socjotechniki wykorzystywane przez aktorów FIMI. 

Wzbudzanie silnych emocji – szczególnie strachu i gniewu, nienawiści i dumy – sprawia, że fałszywe twierdzenia odwołujące się do naszych uczuć stają się szczególnie przekonujące. Emocje stanowią domenę tzw. myślenia szybkiego opartego na instynktownych i intuicyjnych schematach, których ludzie używają nieświadomie. Myślenie wolne, to z kolei analityczne przetwarzanie wymagające wysiłku, uruchamiane przy rozwiązywaniu złożonych problemów – do tej domeny należy krytyczne myślenie. Dezinformacja wykorzystuje podatności ludzkiego umysłu uwarunkowane przez pierwotny i prymitywny system myślenia szybkiego.

Efekt iluzorycznej prawdy – gdy dana treść powielana jest przez wiele kont np. botów, wydaje się bardziej prawdopodobna. Podstawowy mechanizm poznawczy, w którym wielokrotna ekspozycja na tę samą informację zwiększa jej postrzeganą wiarygodność. Szczególną techniką dezinformacji jest tzw. astroturfing polegający na tworzeniu fałszywego wrażenia spontanicznej, oddolnej mobilizacji społecznej (ruchy oddolne), gdy w rzeczywistości jest ono inspirowane przez aktorów FIMI. 

Przeciążenie poznawcze – bombardowanie silnym strumieniem informacji, których nie jesteśmy w stanie dostatecznie przetworzyć, ułatwia manipulację odbiorcami. 

Ramowanie narracyjne (framing) – polega na przedstawianiu tej samej informacji w różnych kontekstach, aby wpłynąć na jej interpretację przez odbiorców. Aktorzy FIMI wybierają, które aspekty rzeczywistości wyeksponować, a które pominąć w promowanych narracjach, skłaniając tym odbiorców do określonej interpretacji. Najczęściej stosowane ramy narracyjne to przedstawianie sytuacji jako starcia dobra ze złem, wykorzystanie archetypów i mitów zbiorowych obecnych w danej kulturze. 

Inne taktyki 

  • Whataboutism – strategia odpierania argumentów przez kontratak zamiast merytorycznej odpowiedzi.
  • Zaprzeczanie faktom – negowanie udokumentowanych wydarzeń.
  • Przekręcanie faktów – mieszanie prawdy z kłamstwem.
  • Obwinianie ofiary – odwracanie ról ofiary i sprawcy.

Dezinformacja klimatyczna 

Szczególny rodzaj dezinformacji, którego osią jest tematyka związana ze zmianami klimatu i zielonymi technologiami. Jej przykłady w przestrzeni informacyjnej to: 

  • Państwowy greenwashing – wzmacnianie wizerunku danego państwa, np. poprzez inicjatywy ekologiczne, jednocześnie zaciemniając jego wyniki w zakresie ochrony środowiska, miksu energetycznego i emisji dwutlenku węgla do atmosfery
  • Dezinformacja powiązana z klęskami żywiołowymi i ekstremalnymi zjawiskami pogodowymi – sytuacje kryzysowe spowodowane przez ekstremalne zjawiska pogodowe są okazją wykorzystywaną przez aktorów FIMI do wywoływania zamętu, manipulowania emocjami społecznymi i podważania zaufania do instytucji. Narracje dezinformacyjne związane z klęskami żywiołowymi najczęściej mają schemat teorii spiskowych dot. rzekomej przyczyny zdarzenia przy jednoczesnej negacji zmian klimatycznych – rzeczywistej przyczyny ekstremalnych zjawisk. 
  • Narracje wymierzone w zielone technologie i polityki dot. przeciwdziałania zmianom klimatycznym – np. twierdzenia, że elektrownie wiatrowe zagrażają zdrowiu okolicznych mieszkańców, a Europejski Zielony Ład ma na celu zniszczenie rolnictwa i suwerenności. Co znamienne, nadrzędnym celem takich narracji nie jest konstruktywna krytyka danej polityki bądź zwrócenie uwagi na koszty wprowadzenia nowej technologii. Narracje te mają wywoływać strach, wzmacniać polaryzację i podważać zaufanie do państw demokratycznych, poprzez odwoływanie się do często irracjonalnych argumentów. 

Digital Transnational Repression

Digital Transnational Repression (DTNR) to zjawisko, w którym reżimy autorytarne wykorzystują technologie cyfrowe do uciszania, zastraszania i kontrolowania aktywistów, dysydentów, dziennikarzy i obrońców praw człowieka żyjących za granicą. Ta forma represji wykracza poza metody siłowe, takie jak fizyczne ataki, wprowadzając wymiar cyfrowy jako narzędzie opresji poza granicami autorytarnego państwa. 

DTNR obejmuje techniki takie jak:

  • Cyberataki – wykorzystanie oprogramowania szpiegującego, ataki phishingowe, mające na celu uzyskanie dostępu do kont e-mail i mediów społecznościowych;
  • Dezinformacja – kampanie oszczerstw i nękania w mediach społecznościowych;
  • Doxing – publikowanie danych osobowych ofiar online, w celu ich zastraszenia.

Technologie cyfrowe umożliwiają represyjnym reżimom monitorowanie działań emigrantów i sieci ich kontaktów. Celem DTNR jest wywołanie efektu mrożącego i autocenzury wśród dysydentów, odseparowanie od społeczności w kraju pochodzenia, jak i uchodźctwa. 

Kiedy zachować wzmożoną czujność? 

Dezinformacja w dobie cyfrowej stała się na tyle powszechna, że stanowi szum, z którego staramy się wyłuskiwać rzetelne informacje. Są jednak okoliczności, w których należy zachować wzmożoną czujność i zapobiegawczość – coś na zasadzie zabrania ze sobą apteczki na wycieczkę w góry. Do takich okoliczności zaliczają się wszelkiego rodzaju stany wyjątkowe

Mogą to być np. klęski żywiołowe i innego rodzaju sytuacje kryzysowe, kiedy to instytucje państwa są wyjątkowo obciążone. Wtedy celem nasilonej dezinformacji jest pogłębienie sytuacji kryzysowej poprzez rozsiewanie strachu, rzucanie oskarżeń o złą wolę czy potęgowanie chaosu przez rozpowszechnianie fałszywych informacji. 

Drugim przypadkiem są okresy kampanii wyborczychważne wydarzenia (np. Igrzyska Olimpijskie). Aktorzy FIMI wykorzystują okresy intensywnej debaty publicznej do pogłębiania polaryzacji, promowania ekstremalnych postaw i wzbudzania skrajnych emocji. Celem jest destabilizacja procesów politycznych i zabranie przestrzeni dla rzeczowej dyskusji politycznej pomiędzy stronami. 

Rosnąca konsumpcja informacji za pośrednictwem LLM

Obecne zmianie uległy praktyki korzystania z internetu. Coraz więcej internautów korzysta z chatbotów do pozyskiwania informacji, co sprawia, że zastępują one tradycyjne przeglądarki i wyszukiwarki. Według Reuters Institute Digital News Report 2025, 7% internautów na świecie korzystało z chatbotów AI jako źródła informacji w ciągu ostatniego tygodnia. Jednak wśród młodszych użytkowników dane są znacząco wyższe – 15% osób poniżej 25. r.ż. oraz 12% użytkowników poniżej 35. r.ż. używa chatbotów do śledzenia aktualnych wydarzeń. Chociaż nie jest to większość, to rozwój AI znacząco zmienia środowisko cyfrowe, w tym manipulację w przestrzeni informacyjnej. 

Rozwój AI

Rozwój technologii sztucznej inteligencji (ang. Artificial Intelligence – AI) ma istotny wpływ na ewolucję taktyk, technik i procedur rozprzestrzeniania dezinformacji. Technologie AI mogą być wykorzystywane przez aktorów FIMI jako narzędzie do produkcji i amplifikacji fałszywych treści lub jako kanał ich rozprzestrzeniania, co przekłada się na większy wolumen dezinformacji w przestrzeni informacyjnej. 

AI jako narzędzie może być używane do:

  • Automatyzacji i wsparcia tworzenia treści dezinformacyjnych poprzez jej tłumaczenie, agregowanie na portalach udających informacyjne, uwiarygadnianie fałszywych ekspertów w mediach społecznościowych. 
  • Koordynacji sieci botów – zarządzania automatycznymi kontami generującymi komentarze i udostępniającymi fałszywe treści.
  • Autonomizacji – tworzenia agentów AI, których zadaniem jest produkcja i rozprzestrzenianie dezinformacji
  • Produkcji deepfake’ów – treści syntetycznych, które mają imitować prawdziwe zdjęcia, filmy, dokumenty itp. 

AI może stać się kanałem rozprzestrzeniającym dezinformację poprzez wprowadzenie do zestawu danych treningowych fałszywych treści i narracji. Chatbot może nie rozpoznać podejrzanych źródeł i generować zmanipulowane odpowiedzi na ich podstawie, cytując nawet niektóre z nich jako rzetelne. 

LLM Grooming – zatruwanie danych treningowych dużych modeli językowych

NewsGuard ujawnił rosyjską sieć stron Pravda, która imituje portale informacyjne. Głównym celem Pravdy jest manipulacja narzędziami AI. Administrowana przez firmę TigerWeb z okupowanego przez Rosję Krymu, sieć rozpowszechniła 207 udokumentowanych fałszywych narracji, głównie dotyczących wojny na Ukrainie, tym samym tworząc pozornie niezależne źródła dla chatbotów. Na sieć Pravda składa się 150 stron internetowych w ponad 46 wersjach językowych agregujących treści z rosyjskich źródeł i publikujących ok. 3,6 mln. artykułów w 2024 r. Badacze wskazali, że 7 z 10 badanych chatbotów bezpośrednio cytowało artykuły z sieci Pravda, podając je jako wiarygodne źródło odpowiedzi na pytania użytkowników. Strategię zatruwania danych treningowych dużych modeli językowych (LLM grooming) potwierdził John Mark Dougan, Amerykanin pracujący dla Kremla, który podczas konferencji w Moskwie opisał ten mechanizm [6:00], stwierdzając, m.in. że „wpychając [do zestawu źródeł, z których korzystają algorytmy LLM] rosyjskie narracje i informacje z rosyjskiej perspektywy, możemy faktycznie zmienić światowe AI”. 

Badania The American Sunlight Project potwierdzają, że LLM grooming jest problemem dla dużych modeli językowych. Rosyjska sieć Pravda publikuje miliony fałszywych artykułów rocznie, które następnie są cytowane przez modele AI. Na przykład GPT-4o powołuje się na treści Pravdy w 71,4% przypadków, a model „rozumujący” o3 w 28,6% przypadków. Raport NewsGuard wylicza, że szacunkowo 35% odpowiedzi czołowych chatbotów na pytania o bieżące wydarzenia zawierała fałszywe informacje. 

Modele AI nie mają zdolności do podstawowego rozumowania i mimo wiedzy, że Pravda jest niewiarygodnym źródłem, nie wyciągają wniosku, że nie powinny wykorzystywać go do sporządzania odpowiedzi. Zjawisko to nasila się podczas wyszukiwania w czasie rzeczywistym i jest szczególnie problematyczne dla mniej popularnych i nowych tematów, gdzie modele nie mają przygotowanych zabezpieczeń. Mimo że problem jest znany, dostawcy modeli językowych nadal go nie rozwiązali.

Dominująca pozycja platform cyfrowych

Platformy cyfrowe Big Tech osiągnęły bezprecedensową koncentrację kapitału ekonomicznego, którego rozmiar przekracza możliwości wielu państw. W 2025 r. wartość rynkowa Alphabet – spółki nadrzędnej kontrolującej Google – wyniosła 2,94 biliona dolarów, a Meta 1,8 biliona. Siła platform wynika z faktu, że stanowią infrastrukturę dla rynku cyfrowego. Google kontroluje ponad 60% rynku wyszukiwarek w USA i ponad 90% w Europie, Brazylii i Indiach. Meta (Facebook i Instagram) kontroluje co najmniej 74–80% światowego udziału w rynku mediów społecznościowych – 3,48 miliarda użytkowników, co stanowi blisko 43% światowej populacji. 

Tak duży kapitał platform cyfrowych rodzi poważne implikacje dla społeczeństwa. Platformy cyfrowe przejęły funkcje tradycyjnie zarezerwowane dla państw i mediów publicznych, stając się administratorami przestrzeni informacyjnej. Kontrolują nie tylko to, jakie informacje docierają do obywateli, ale również jak są one prezentowane poprzez algorytmy rekomendacji. Już dziś odgrywają one kluczową rolę dla przebiegu kampanii wyborczych. Platformy często dysponują większymi zasobami i możliwościami technicznymi niż organy regulacyjne, co pozwala im dyktować warunki współpracy z państwami. Europejskie regulacje takie jak Digital Market Act i Digital Services Act stanowią pierwszą znaczącą próbę ograniczenia tej władzy. 

Trendy wskazują, że siła oddziaływania platform cyfrowych nie tylko ekonomiczna, ale i polityczna, będzie się zwiększać. Ponieważ platformy cyfrowe obsługują miliardy użytkowników, tworzą ekosystem, który trudno jest zastąpić innymi produktami. 

Co ja mogę zrobić?

Sposób konsumpcji mediów i treści powinien być niczym zróżnicowana dieta. Ogromne znaczenie ma aktywne dociekanie, refleksja i krytyczne myślenie na temat wszystkich otrzymywanych treści. Nie chodzi o to, by żyć w ciągłej nieufności i kwestionować każdą otrzymywaną informację. Ważne jest, by posiąść umiejętność weryfikacji i stworzyć odpowiadający naszym potrzebom zestaw zaufanych źródeł, a także od czasu do czasu wychodzić poza swoją bańkę informacyjną i konfrontować swoje poglądy w oparciu o rzetelne dane. 

Rozpoznawaj czerwone flagi – charakterystyczne sygnały ostrzegawcze: nieznane lub podejrzane źródła, sensacyjne nagłówki oraz wezwania do natychmiastowego działania. Nie zawsze muszą oznaczać, że mamy do czynienia z dezinformacją, ale w większości przypadków sygnalizują treść niskiej jakości.

Domeny imitujące znane media

Zwracaj uwagę na domenę, na którą wchodzisz. Ma to znaczenie nie tylko podczas logowania się do banku, ale również podczas przeglądania mediów. Jedną z częstych technik dezinformacyjnych jest tzw. typosquatting. Jest to technika cyberprzestępcza polegająca na rejestrowaniu domen internetowych, które są łudząco podobne do oryginalnych popularnych adresów – np. różnią się minimalnie literą, znakiem, końcówką. Przykładem jest theguardıan[.]com (z zamienionym znakiem„i”) zamiast oryginalnego theguardian[.]com lub polityka24[.]pl zamiast oryginalnej strony polityka[.]pl. Jeśli masz wątpliwość, wpisz samodzielnie adres domeny w nowej karcie i upewnij się, że ta treść rzeczywiście się tam znajduje.

Artykuły bez podpisu autora lub autorstwa fikcyjnych dziennikarzy

Jeśli chcesz się upewnić, możesz sprawdzić zamieszczone zdjęcie autora, czy nie zostało wygenerowane przez AI lub skradzione innej osobie (wyszukiwanie obrazem np. https://tineye.com/; images.google.com; narzędzia open-source np. https://github.com/GuidoBartoli/sherloq); (zaawansowane wyszukiwanie w Google: https://github.com/The-Osint-Toolbox/OSINT-Advanced-Searching, https://www.maltego.com/blog/using-google-dorks-to-support-your-open-source-intelligence-investigations/ )

Clickbaity i nagłówki napisane wielkimi literami typu „SZOKUJĄCE!”, „MUSISZ TO WIEDZIEĆ!” są oczywistą przynętą

Nienaturalny język i składnia mogą wskazywać, że tekst był tłumaczony maszynowo i pisany przez obcokrajowców podszywających się pod polskich użytkowników.

Dominacja podobnych lub prawie identycznych komentarzy pod danym materiałem w mediach społecznościowych może wskazywać na zamiar sztucznego wzmocnienia tej treści i zniechęcenie rzeczywistych użytkowników do podważania forsowanej narracji.

Stare zdjęcia prezentowane w kontekście aktualnych wydarzeń

Jeśli dany artykuł lub post jest zilustrowany zdjęciem, które w rzeczywistości przedstawia inne wydarzenie, to jest to silna przesłanka, by uznać daną treść za nierzetelną. Jeśli chcesz sprawdzić, w jakich innych kontekstach pojawiała się dana grafika, możesz spróbować narzędzi wyszukiwania obrazem. [Przykłady: Google grafika; TinEye; DeepSecure]

Co robią inni?

W przeciwdziałanie dezinformacji zaangażowane jest wiele instytucji publicznych, ośrodków badawczych i analitycznych, a także organizacji społeczeństwa obywatelskiego. Każda z nich pełni swoją rolę w zmniejszaniu negatywnych skutków obcej ingerencji i manipulacji w środowisku informacyjnym – od bieżącego monitoringu infosfery, poprzez tworzenie polityk, aż po edukację i budowanie odporności społecznej. 

Polskie ośrodki naukowe i badawcze

Uniwersytet Warszawski 

Uniwersytet Warszawski stanowi wiodącą polską instytucję akademicką zajmującą się badaniami i realizacją projektów w zakresie przeciwdziałania dezinformacji. 

SAUFEX – (Secure Automated Unified Framework for Exchange) – projekt finansowany z programu Horyzont Europa. Jego celem jest stworzenie wspólnej przestrzeni danych oraz ustanowienie Rady Odporności, by zsynchronizować i zdemokratyzować przeciwdziałanie FIMI w Unii Europejskiej. 

Cyber LEGION – Program tworzony we współpracy z Wojskami Obrony Cyberprzestrzeni.

Naukowa Akademicka Sieć Komputerowa 

NASK prowadzi Ośrodek Analizy Dezinformacji, który zajmuje się monitoringiem treści dezinformacyjnych w mediach społecznościowych, prowadzi kampanie edukacyjne (“Sprawdzam!”, “Włącz Weryfikację”), szkoli dziennikarzy oraz udostępnia formularz do zgłaszania podejrzanych treści.

Ośrodek Studiów Wschodnich 

Czołowy ośrodek analityczny, który podejmuje problematykę rosyjskiej dezinformacji i dekonstrukcji narracji propagandowych.

Organizacje Społeczeństwa Obywatelskiego:

Counter Disinformation Network – międzynarodowa sieć zrzeszonych organizacji społeczeństwa obywatelskiego, analityków OSINT, dziennikarzy, weryfikatorów faktów, naukowców i innych praktyków pod patronatem Alliance4Europe.

Debunk.org – niezależny ośrodek analityczny, który bada dezinformację i prowadzi kampanie edukacyjne w celu podnoszenia kompetencji medialnych i cyfrowych. 

Fundacja INFO OPS – jej misją jest analiza dezinformacji w polskiej i światowej przestrzeni informacyjnej.

Elfy – zdecentralizowany międzynarodowy ruch obywatelski zainicjowany w 2014 r. na Litwie, złożony z tysięcy anonimowych wolontariuszy z krajów Europy Środkowej i Wschodniej.

PropaStop – estońska inicjatywa związana z Ligą Obrony (Kaitseliit – formacja obrony terytorialnej). 

Myth Detector – gruzińska organizacja weryfikacji faktów działająca od 2014 r. Publikuje w siedmiu językach.

DFRLab – Digital Forensic Research Lab, organizacja badawcza założona w 2016 r. zajmująca się techniką cyfrową i polityką dezinformacji. Przeprowadziło ponad 1000 śledztw eksponujących operacje wpływowe na całym świecie. Pracuje nad promocją odporności cyfrowej, obroną instytucji demokratycznych i zapewnieniem faktyczności w dyskursie publicznym. Publikuje studium przypadków na dfrlab.org i współpracuje z innymi organizacjami.

Citizen Lab – interdyscyplinarne laboratorium przy Munk School of Global Affairs na Uniwersytecie Toronto, założone w 2001 r. Zajmuje się badaniem kontroli informacji, cyberszpiegostwa, cenzury i innych cyfrowych zjawisk zagrażających prawom człowieka. 

Wybrane portale i kolektywy dziennikarstwa śledczego regularnie podejmujące problem dezinformacji i weryfikacji faktów

Bellingcat – założony w 2014 r. międzynarodowy kolektyw dziennikarzy śledczych. Specjalizuje się w fact-checkingu i wywiadzie jawnoźródłowym (OSINT). Publikuje śledztwa dotyczące stref konfliktów, naruszeń praw człowieka i przestępczości.

Frontstory – polski kolektyw dziennikarzy śledczych uruchomiony w 2021 r. przez Fundację Reporterów. Wykorzystuje metody tradycyjnego dziennikarstwa, OSINT, analizę danych i nowe technologie cyfrowe.

Demagog – organizacja fact-checkingowa, której celem jest weryfikacja wypowiedzi polityków, sprawdzanie obietnic wyborczych i dementowanie fake newsów. 

OKO.press – polski portal dziennikarstwa śledczego i fact-checkingu.

Międzynarodowe zrzeszenia weryfikatorów faktów

IFCN – Międzynarodowa Sieć Fact-Checkingowa, ustanawia i promuje globalne standardy weryfikacji faktów, wspierając organizacje fact-checkingowe w produkcji bezstronnych i transparentnych raportów celem zwiększenia odpowiedzialności mediów i przeciwdziałaniem dezinformacji.

EFCSN – Europejska Sieć Standardów Fact-Checkingu – koordynuje i certyfikuje europejskie organizacje weryfikujące fakty, podnosi ich kompetencje, prowadzi działania edukacyjne, wspiera obronę integralności informacyjnej.

Poziom krajowy

Ministerstwo Spraw Zagranicznych

Mandatem MSZ jest prowadzenie komunikacji strategicznej i przeciwdziałanie dezinformacji międzynarodowej – pochodzącej spoza granic Polski. MSZ uczestniczy w międzynarodowych forach zajmujących się tym zagrożeniem, a także w pracach legislacyjno-regulacyjnych na poziomie Unii Europejskiej. 

Komunikacja strategiczna to działanie na rzecz wzmacniania wizerunku RP na arenie międzynarodowej i ochrony polskich interesów przed fałszywymi narracjami nieprzyjaznych państw. 

Oprócz powyższych, ważnym aspektem przeciwdziałania dezinformacji jest budowanie odporności społecznej. W tym celu we wrześniu 2024 r. powołana została Rada Odpornościplatforma współpracy z przedstawicielami społeczeństwa obywatelskiego koordynowana przez Pełnomocnika MSZ ds. Przeciwdziałania Dezinformacji Międzynarodowej.

Ministerstwo Cyfryzacji 

Jest koordynatorem działań edukacyjnych i kampanii społecznych przeciwko dezinformacji. Jest kluczową instytucją dla wdrożenia w Polsce unijnego Aktu o usługach cyfrowych (DSA), który wprowadza narzędzia normalizacji przestrzeni informacyjnej poprzez regulację platform cyfrowych. Nadzoruje Naukową Akademicką Sieć Komputerową (NASK).

Dowództwo Komponentu Wojsk Obrony Cyberprzestrzeni

Obszarem odpowiedzialności DKWOC jest szeroko rozumiane bezpieczeństwo w cyberprzestrzeni. Odnosi się to przede wszystkim do aspektów technicznych, jednak DKWOC rozpoznaje dezinformację jako element szerszych operacji informacyjnych i współpracuje z innymi podmiotami administracji.

Poziom Unii Europejskiej 

Unia Europejska (UE) posiada najbardziej rozwinięte ramy instytucjonalne przeciwdziałania dezinformacji ze wszystkich organizacji międzynarodowych. By lepiej oddać złożoność zjawiska, UE opracowała definicję obcej ingerencji i manipulacji w środowisku informacyjnym (ang. Foreign Information Manipulation and Interference – FIMI). Rozwiązania unijne stanowią spójny ekosystem. Ich główną zasadą jest komplementarność oraz podejście całościowe do problemu FIMI, który stanowi wielowymiarowe wyzwanie dla bezpieczeństwa UE.

Europejska Służba Działań Zewnętrznych (ESDZ) – kluczowa instytucja UE, której zadaniem jest przeciwdziałanie FIMI. Posiada w swojej strukturze Wydział Komunikacji Strategicznej (Strategic Communication Division), który koordynuje pracę Zespołu Analizy Danych (Data Analysis Team) oraz czterech zespołów zadaniowych ds. komunikacji strategicznej o zasięgu geograficznym. 

  • East StratCom Task Force
  • The Task Force South
  • Sub-Saharan Africa Stratcom Task Force 
  • Western Balkans Task Force

EU vs Disinfo

Flagowy projekt East StratCom Task Force w postaci bazy danych incydentów informacyjnych w Europie. Baza danych jest na bieżąco aktualizowana przez analityków. Dodatkowo EU vs Disinfo prowadzi bazę danych artykułów naukowych i raportów analitycznych dot. problemu obcej ingerencji i manipulacji w środowisku informacyjnym. 

FIMI-ISAC

Centrum wymiany i analizy informacji (FIMI-ISAC) to instytucja, która powstała w odpowiedzi na potrzebę zwiększenia interoperacyjności podmiotów zaangażowanych w przeciwdziałanie dezinformacji w UE. Ze względu na mnogość ośrodków analitycznych przepływ informacji pomiędzy nimi jest utrudniony, a obraz zagrożeń rozproszony. Celem FIMI-ISAC jest uspójnienie definicji problemu i metodologii oraz ustandaryzowanie formatu danych, by móc zapewnić ich sprawną wymianę w obliczu dynamicznych zagrożeń informacyjnych.

European Digital Media Observatory

Niezależny ośrodek zrzeszający weryfikatorów faktów, redakcje, edukatorów i badaczy specjalizujących się w problemie dezinformacji cyfrowej. EDMO bada wzajemne oddziaływanie mediów społecznościowych, mediów głównego nurtu oraz liderów politycznych i opiniotwórczych w potencjalnym rozpowszechnianiu dezinformacji. Wspiera wdrażanie Europejskiego kodeksu postępowania w zakresie dezinformacji. Obecnie funkcjonuje 15 hubów krajowych i regionalnych, które razem obejmują wszystkie 27 krajów członkowskich UE oraz Norwegię, Mołdawię i Ukrainę. 

Regulacje 

Unia Europejska wdrożyła wielowarstwowy system regulacyjny, który pośrednio ogranicza problem dezinformacji. Regulacje unijne możemy podzielić na poszczególne perspektywy: 

  • Transparentność algorytmów – Europejski akt o usługach cyfrowych (DSA) wprowadza bezpośrednie regulacje dotyczące moderacji treści i przejrzystości algorytmów.
  • Ochrona danych – Rozporządzenie o Ochronie Danych Osobowych (RODO) zawiera przepisy dotyczące profilowania i automatycznego podejmowania decyzji na podstawie danych osobowych. 
  • Bezpieczeństwo rynku medialnegoAkt o rynkach cyfrowych (DMA) nakłada na firmy takie jak Alphabet, Amazon, Apple, ByteDance, Meta i Microsoft zestaw obowiązków dotyczących przejrzystości reklam online.
  • Bezpieczeństwo technologii sztucznej inteligencji – Akt o sztucznej inteligencji (AI Act) obliguje chatboty do informowania użytkowników, że treść została wygenerowana przez AI oraz ujawniania informacji o danych, na których modele zostały wytrenowane.
  • Wolność mediów – Europejski akt o wolności mediów (EMFA) ma na celu wzmocnienie wiarygodności źródeł i ochronę przed propagandą państwową w mediach tradycyjnych. 

Powyższe akty prawne spaja idea ochrony praw i godności obywateli UE, w tym prawa do wolności słowa, ochrony prywatności i uczciwego traktowania konsumentów przez gigantów technologicznych. 

Europejska Tarcza Demokratyczna

Tarcza ma na celu połączenie wielu istniejących inicjatyw Unii Europejskiej w zakresie zwalczania obcej ingerencji i manipulacji w środowisku informacyjnym (FIMI) oraz ochrony integralności procesów wyborczych w bardziej spójną politykę. Projekt Tarczy, rozwijany od 2024 r., jest obecnie w trakcie procesu legislacji, a jego wdrożenie planowane jest na 2026 r. Tarcza traktuje FIMI jako bezpośrednie zagrożenie dla ustroju demokratycznego – podstawy integracji europejskiej państw członkowskich UE.

Poziom globalny

NATO

Podejście NATO do zagrożeń informacyjnych koncentruje się na wrogich działaniach prowadzonych przez podmioty państwowe i niepaństwowe, w tym operacjach informacyjnych, manipulacji informacjami i ingerencji oraz dezinformacji. Ponieważ NATO od początku swojego istnienia jest obiektem rosyjskiej dezinformacji, prowadzi stronę, na której dekonstruuje najpopularniejsze mity na temat organizacji. 

Państwa członkowskie NATO współpracują również w ramach centrów doskonałości (Centres of Excellence – COE’s). Centra doskonałości to międzynarodowe organizacje wojskowe, które są finansowane z inicjatywy członków sojuszu. Ich celem jest kształcenie liderów oraz specjalistów. Chociaż są one akredytowane przez NATO, nie wchodzą w skład struktury dowodzenia NATO ani nie podlegają żadnej innej jednostce NATO.

Centrum Doskonałości Komunikacji Strategicznej NATO ma siedzibę w Rydze na Łotwie. Funkcjonuje ono jako platforma wspierana przez międzynarodowych ekspertów z kręgów wojskowych, rządowych i akademickich, którzy przyczyniają się do rozwoju zdolności komunikacji strategicznej uczestniczących w nim krajów.

G7 Rapid Response Mechanism

W 2018 r. Grupa G7 ustanowiła mechanizm szybkiego reagowania (Rapid Response Mechanism – RRM) poświęcony zacieśnieniu współpracy, koordynacji, analizy i reagowania na zagrożenia informacyjne. Jednym z zadań jest opracowywanie wspólnych narzędzi i metod analizy danych w celu identyfikacji zagrożeń informacyjnych. Oprócz analizy i monitoringu dezinformacji, G7 RRM ma wymiar dyplomatyczny i komunikacyjny – wydawanie wspólnych oświadczeń członków grupy potępiających operacje informacyjne czy transnarodowe represje prowadzone przez reżimy autorytarne. 

Inne państwa: 

Francja 

Francja utworzyła wyspecjalizowaną agencję zajmującą się monitorowaniem, analizowaniem i reagowaniem na FIMI. VIGINUM (fr. Service de vigilance et protection contre les ingérences numériques étrangères) to służba utworzona w 2021 r., podlegająca Sekretariatowi Generalnemu ds. Obrony i Bezpieczeństwa Narodowego. VIGINUM stanowi centralny element francuskiego systemu bezpieczeństwa informacyjnego i koordynuje współpracę z innymi francuskimi instytucjami publicznymi. VIGINUM regularnie publikuje obszerne raporty, w których ujawnia zagraniczne operacje informacyjne w infosferze francuskiej i europejskiej. 

Szwecja

Szwecja utworzyła Agencję Obrony Psychologicznej w 2022 r. Agencja podlega Ministerstwu Obrony i kieruje koordynacją i rozwojem szwedzkiej obrony psychologicznej we współpracy z organami publicznymi i innymi zainteresowanymi stronami. Podobnie jak francuska agencja VIGINUM, odpowiada ona za monitorowanie zewnętrznych operacji informacyjnych. Jedną z głównych misji Agencji jest wspieranie odporności szwedzkiego społeczeństwa na dezinformację oraz edukacja obywateli w tym obszarze. Agencja blisko współpracuje z ośrodkami badawczymi, jak Uniwersytet w Lund, publikuje raporty oraz narzędziowniki edukacyjne dla osób zainteresowanych pogłębieniem swojej wiedzy. 

Whole of society approach – każdy jest ważny

Najczęściej podawanym przykładem całościowego podejścia do bezpieczeństwa jest Finlandia. Elementem takiego podejścia jest w Finlandii budowanie odporności społecznej na dezinformację. Model fiński opiera się o zasadę „całego społeczeństwa” (whole-of-society approach), w którym odpowiedzialność za bezpieczeństwo informacyjne spoczywa nie tylko na instytucjach państwowych, ale także na biznesie, organizacjach społecznych i obywatelach. 

Ważnym elementem budowania odporności jest w Finlandii edukacja medialna, która jest częścią podstawy programowej od 2014 r. Korzyści płynące z fińskiego podejścia przekładają się na realne wyniki. Według Indeksu Kompetencji Medialnych Finlandia zajmuje pierwsze miejsce w Europie. 

Model SIFT

(Stop, Investigate, Find, Trace) – metoda szybkiej weryfikacji treści

  1. Stop – zatrzymaj się, nie reaguj natychmiast
  2. Inspekcja – zbadaj źródło, sprawdź wiarygodność autora
  3. Filtr – znajdź lepsze źródła, poszukaj potwierdzenia w innych mediach
  4. Trop – sprawdź pochodzenie konkretnych faktów
  5. Sygnały ostrzegawcze obejmują elementy wizualne (niska jakość, dziwne oświetlenie w deepfake’ach), językowe (sensacyjne nagłówki, błędy) i strukturalne (brak informacji o autorze)

Zob. analogiczny model CRAAP.

Weryfikacja w 6 krokach:

  1. Zidentyfikuj konkretne twierdzenia.
  2. Znajdź pierwotne źródło informacji.
  3. Oceń wiarygodność źródła.
  4. Poszukaj potwierdzenia w innych źródłach.
    1. Fact Check Tools API
    2. Google Dorks
  5. Skonsultuj się z ekspertami.
  6. Oceń kontekst publikacji.

Metody wykrywania deepfake

Deepfake – technologia oparta na sztucznej inteligencji – stanowi poważne wyzwanie dla bezpieczeństwa informacyjnego. Chociaż wysokiej jakości syntetyczne materiały audiowizualne osiągnęły punkt, w którym ich rozróżnienie od treści autentycznej staje się dla oka i ucha przeciętnego obserwatora niemal niemożliwe, istnieją techniki umożliwiające ich identyfikację. Eksperci z NASK wskazują na charakterystyczne artefakty: zniekształcenia wokół ust, błędy w odwzorowaniu uzębienia, nienaturalne ruchy głowy i mimiki, a także niewłaściwą intonację czy niespodziewane szumy dodawane w celu zakamuflowania nieprawidłowości. Coraz częściej oszuści stosują zaawansowane techniki maskujące ślady manipulacji, utrudniające zarówno manualną detekcję, jak i działanie algorytmów automatycznych.

Metody i strategie dla instytucji publicznych, urzędników i organizacji wysokiego ryzyka

Model RESIST 2.

Opiera się na pięciu fazach: 1) Recognise (identyfikacja treści za pomocą wskaźników), 2) Early Warning (monitorowanie skoncentrowane na naszych słabościach), 3) Situational Insight (transformacja danych w wiedzę i świadomość sytuacyjną) 4) Impact Analysis (ocena ryzyka) 5) Strategic Communication (realizacja działań komunikacyjnych). 

IV linie obrony

  1. linia – dokumentowanie zagrożenia poprzez monitorowanie i analizę kampanii dezinformacyjnych; 
  2. linia – podnoszenie świadomości społecznej i edukacja o metodach manipulacji;
  3. linia – naprawa słabości i luk w ekosystemie informacyjnym poprzez wsparcie niezależnych mediów i audyt – ocenę ryzyka – algorytmów platform cyfrowych
  4. linia – karanie adwersarzy poprzez działania prawne, sankcje i odstraszanie (deterrence). Skuteczna obrona wymaga zaangażowania całego społeczeństwa – administracji publicznej, sektora prywatnego, organizacji pozarządowych i obywateli – działających w koordynacji na wszystkich czterech liniach.

PSYCHOLOGICAL DEFENSE FRAMEWORK

Ramy obrony psychologicznej definiują nowoczesne podejście do ochrony przed zagrożeniami hybrydowymi i manipulacją informacyjną, opierając się na czterech zasadach: 1) odporności społecznej (resilience) – edukacja medialna i cyfrowa oraz kształcenie umiejętności w zakresie krytycznego myślenia; 2) rozpoznawaniu zagrożeń (threat intelligence) – monitoring i profilowanie adwersarzy; 3) odstraszaniu (deterrence) – publiczne ujawnianie kampanii i nakładanie sankcji; 4) komunikacji strategicznej (strategic communication) – skoordynowane wysiłki komunikacyjne wspierające zaufanie do instytucji. W polskim kontekście podejście redefiniuje tradycyjną obronę psychologiczną, wprowadzając wymiar cyfrowy i technologiczny, oraz podkreślając kluczową rolę zdolności poznawczych obywateli w opieraniu się zaawansowanym operacjom wpływu prowadzonym przez wrogie podmioty.

Narzędzia weryfikacji obrazów

Kliknij prawym przyciskiem myszy na zdjęcie dziennikarza i wybierz „Wyszukaj obraz w Google”

Sprawdź wyniki – jeśli to sama osoba pojawia się pod innymi nazwiskami, to podejrzane

Otwarte narzędzia do wykrywania deepfake

Odnośniki do portali fact-checkingowych i baz 

Podstawy OSINT

Wspólna taksonomia dla społeczności obrońców

Doppelgänger

Doppelgänger (pol. sobowtór) jest jedną z największych i najdłużej prowadzonych rosyjskich kampanii dezinformacyjnych wymierzonych w kraje europejskie od czasów pełnowymiarowej inwazji Rosji na Ukrainę w lutym 2022 r. Obecnie analitycy określają go jako zestaw taktyk, technik i procedur (TTP’s), które polegają na tworzeniu fałszywych witryn internetowych i podszywaniu się pod uznane zachodnie media. Zestaw ten stosowany jest w innych operacjach informacyjnych, takich jak Matrioszka, Overload i Undercut, prowadzonych przez rosyjskie podmioty Social Design Agency i Struktura.

Odnośniki do raportów: 1; 2; 3; 4; 5.

Overload (Matrioszka)

Operacja Overload korzysta z zestawu technik, charakterystycznego dla Doppelgängera, jednak oprócz tego wykorzystuje inne bardziej zaawansowane TTP’s. Szczególną cechą jest bombardowanie weryfikatorów faktów, redakcji i ośrodków analitycznych fałszywymi zgłoszeniami treści do sprawdzenia, tak by odwrócić ich uwagę od innych manipulacyjnych działań w infosferze oraz sparaliżować ich pracę. Operacja była aktywna m.in. podczas igrzysk olimpijskich w Paryżu i wyborów prezydenckich w USA w 2024 r. Szczególne nasilenie aktywności Overload miało miejsce przed wyborami parlamentarnymi w Mołdawii we wrześniu 2025 r., gdzie powiązane sieci kont powielały treści zniesławiające urzędującą prezydent Maię Sandu i liberalną partię PAS. 

Odnośniki do raportów: 1; 2; 3; 4; 5.

Sieć Pravda (Portal Kombat) 

Sieć Pravda, to jedna z najbardziej intensywnych rosyjskich operacji dezinformacyjnych. Pierwotnie stanowiła sieć serwisów agregujących komunikaty dezinformacyjne kierowane do mieszkańców Ukrainy i Rosji. Następnie w 2023 r. jej zasięg został rozszerzony o domeny w języku francuskim, niemieckim i polskim, a w kwietniu 2024 r. (przed wyborami do Parlamentu Europejskiego) sieć domen pokrywała niemal wszystkie kraje w Europie. 

Witryny należące do sieci Pravda, to 150 stron internetowych w 46 wersjach językowych, a ilość produkowanych artykułów dochodziła do 3,6 miliona w 2024 r. Udostępniane treści, które w większości są wygenerowane przez AI, mają stwarzać pozory niezależnych artykułów. NewsGuard w raporcie z marca 2025 r. ujawnił, że celem sieci Pravda jest manipulacja wielkoskalowymi modelami językowymi (LLM). Analitycy NewsGuard wskazali, że 7 z 10 badanych chatbotów bezpośrednio cytowało artykuły z sieci Pravda, podając je jako wiarygodne źródło odpowiedzi na pytania użytkowników.

Odnośniki do raportów: 1; 2; 3; 4; 5; 6.

Storm-1516 (CopyCop) 

Storm-1516 charakteryzuje wielowarstwowy zestaw TTP’s wykorzystywanych w celu dyskredytacji Ukrainy oraz podważania zaufania do rządów i instytucji, zwłaszcza w okresach wyborczych m.in. we Francji, Niemczech i USA. Storm-1516 wykorzystuje deepfake wideo i audio, fotomontaże, fałszywe dokumenty oraz tworzenie fałszywych stron internetowych i kont w mediach społecznościowych. Dystrybucja i wzmacnianie treści odbywają się przez sieć kont jednorazowych, płatnych influencerów, media afrykańskie i bliskowschodnie, a także sieci domen internetowych (CopyCop, Pravda). Storm-1516 wykazuje ścisłą współpracę z innymi rosyjskimi ekosystemami dezinformacyjnymi oraz korzysta z technik „prania” dezinformacji, aby nadać im pozory autentyczności i ukryć rosyjskie pochodzenie. W ramach kampanii udokumentowano szerzenie teorii spiskowych i treści mających wzbudzać strach lub polaryzować społeczeństwa europejskie.

Odnośniki do raportów: 1; 2; 3; 4.

Sprawdź newsa samodzielnie!

Rozpoznanie czerwonych flag – charakterystycznych sygnałów ostrzegawczych: nieznane lub podejrzane źródła, sensacyjne nagłówki oraz nawoływanie do natychmiastowego działania.

Domeny imitujące znane media

Zwracaj uwagę na domenę – jeśli masz wątpliwość wpisz samodzielnie adres domeny w nowej karcie i upewnij się, że ta treść rzeczywiście tam występuje; omówienie typosquatting – niekiedy niezauważalne różnice w adresie; czasem po prostu podobne nazwy.

Prawidłowa domenaFałszywa domena
onet.plonet[.]pw, onet[.]blog, onet[.]info
tvn24.pltvn24[.]news, tvn24[.]tv, tvn-24[.]pl
interia.plinteria[.]net, interia[.]org, interia[.]ws
wp.plwp-news[.]pl, w-p[.]pl, wiadomosci-pl[.]pw
gazeta.plgazeta[.]net, gazetka[.]pl
reuters.comreuters[.]cfd
bild.debild[.]eu.com
theguardian.comtheguardian[.]co.com
welt.dewelt[.]ws
dailymail.co.ukdailymail[.]top

Zob. raport: https://www.sgdsn.gouv.fr/files/files/20230719_NP_VIGINUM_RAPPORT-CAMPAGNE-RRN_EN1.pdf

Artykuły bez podpisu autora lub z informacjami o fikcyjnych dziennikarzach

  • Metoda Google dorks – użyj jej aby sprawdzić, czy zdjęcia dziennikarzy nie zostały wygenerowane przez AI. 
  • thispersondoesnotexist.com  porównaj zdjęcie dziennikarza z bazą generatora AI, który tworzy zmyślone twarze. Możesz porównać zdjęcie dziennikarza z taką bazą.

Przykłady zdjęć profilowych wygenerowanych przez AI.

Przykłady zdjęć profilowych wygenerowanych przez AI; Źródło: https://dfrlab.org/2024/03/28/inauthentic-campaign-amplifying-islamophobic-content-targeting-canadians/

Zob. też: https://medium.com/dfrlab/inauthentic-instagram-accounts-with-synthetic-faces-target-navalny-protests-a6a516395e25

Przykład portalu z nieistniejącą redakcją:

https://oko.press/portal-z-falszywkami-kradnie-artykuly-tak-uwiarygodnia-sie-rosyjska-dezinformacja-w-polsce

https://truestory.pl/niezalezny-dziennik-polityczny-tepy-mlot-rosyjskiej-propagandy/

  • Nagłówki z wielkimi literami typu „SZOKUJĄCE!”, „MUSISZ TO WIEDZIEĆ!”, lub odwołujące się do emocji, np. „Lekarze go nienawidzą”, „Znalazł jeden prosty sposób na!” 

Charakterystyka clickbaitu:

  • Duże litery, znaki wykrzyknika – budzą poczucie pilności
  • Luka informacyjna – tytuł sugeruje wiedzę, ale jej nie zdradza (człowiek z natury dąży do uzupełnienia luki)
  • Odwołanie do emocji – strach, szok, oburzenie, zagrożenie 
  • Liczby – „10 rzeczy”, „3 powody”, „5 reguł”
  • Pytania bez odpowiedzi – pobudzają wyobraźnię
  • Stare zdjęcia prezentowane jako aktualne wydarzenia [odnośnik do narzędzi, wyszukiwanie obrazem]
  1. Kliknij prawym przyciskiem myszy na zdjęcie dziennikarza i wybierz „Wyszukaj obraz w Google”
  2. Sprawdź wyniki – jeśli to sama osoba pojawia się pod innymi nazwiskami, jest to podejrzane

Twórcy Podręcznika

dr Piotr Sosnowski 

Katedra Studiów Strategicznych i Bezpieczeństwa Międzynarodowego 
Wydział Nauk Politycznych i Studiów Międzynarodowych UW
Członek zespołu badawczego w projekcie SAUFEX (Secure Automated Unified Framework for Exchange)

mgr Kamila Szymańska 

Doktorantka w Szkole Doktorskiej Nauk Społecznych UW 
Badaczka w projekcie SAUFEX (Secure Automated Unified Framework for Exchange)