La “Guerra Ibrida” della Russia

Architettura, Impatto e Strategie di Difesa contro le attività di falsa Propaganda e Disinformazione

 

EUROPEISTI:          L’analisi rivela una transizione fondamentale nella dottrina russa: la guerra dell’informazione non è più uno strumento ausiliario, ma un pilastro centrale e permanente della sua politica estera, concepita come una “guerra pacifica” per destabilizzare le democrazie occidentali.

 

Gli obiettivi strategici del Cremlino sono chiari e multidimensionali:

 

  • minare la coesione dell’Unione Europea e della NATO,
  • interferire nei processi democratici nazionali,
  • erodere la fiducia pubblica nelle istituzioni e
  • creare polarizzazione sociale.

 

  • Per raggiungere tali scopi, la Russia ha costruito un ecosistema di influenza complesso e multimiliardario. Questo apparato è diretto ai massimi livelli del Cremlino e implementato attraverso un intreccio di attori statali, come i servizi di intelligence (GRU), ed una vasta rete di proxy, che include media statali come RT e Sputnik, entità sofisticate come la “Internet Research Agency” (IRA) e i suoi successori (‘Doppelgänger‘), organizzazioni non governative di facciata (GONGO) e una schiera di influencers e bloggers.

 

  • Le tattiche impiegate sono in continua evoluzione, passando dalla disinformazione di massa a tecniche più sofisticate come la clonazione di siti web, l’uso di intelligenza artificiale generativa e la creazione di “alibi informativi” per mascherare operazioni militari. Queste attività sono sempre più integrate con azioni cinetiche, quali sabotaggi e spionaggio.

 

  • I principali teatri operativi in Europa includono la Germania, la Francia e l’Italia, nazioni prese di mira con campagne persistenti e su larga scala volte a influenzare le elezioni e a indebolire il sostegno all’Ucraina. Altri casi studio significativi, come il referendum sulla Brexit e la crisi catalana, dimostrano la capacità della Russia di sfruttare le vulnerabilità politiche esistenti.

 

  • In risposta, l’UE e i suoi Stati membri hanno sviluppato una serie di contromisure, tra cui il Digital Services Act (DSA) e agenzie specializzate come EUvsDisinfo e VIGINUM in Francia. Tuttavia, l’efficacia di queste risposte è mista e spesso ostacolata da una significativa asimmetria di risorse e dalla scarsa cooperazione delle piattaforme tecnologiche.

 

Il rapporto si conclude con una serie di raccomandazioni strategiche volte a costruire una difesa democratica completa. Queste includono il rafforzamento della regolamentazione e della sua applicazione, l’imposizione di costi significativi agli attori maligni, l’investimento in comunicazioni strategiche proattive, il sostegno al giornalismo indipendente e l’espansione dei programmi di alfabetizzazione mediatica.

 

Solo un approccio integrato, che coinvolga governi, settore privato, società civile e cittadini, può sperare di contrastare efficacemente la minaccia ibrida persistente e in evoluzione posta dalla Russia.

 

  1. Sezione:

La Dottrina Geopolitica della Guerra dell’Informazione Russa

 

Le operazioni di disinformazione della Russia non sono tattiche isolate o opportunistiche, ma l’espressione di una dottrina geopolitica profondamente radicata e in continua evoluzione. Per comprendere la natura della minaccia, è essenziale analizzarne le fondamenta concettuali, che trasformano lo spazio informativo da un’arena di dibattito a un campo di battaglia strategico.

 

1.1 Dalle “Misure Attive” alla Guerra Ibrida

 

La moderna guerra dell’informazione russa è l’erede diretta delle “misure attive” (in russo: активные мероприятия) dell’era sovietica, ma adattata e potenziata per l’era digitale. Questa continuità dottrinale è stata formalizzata nel concetto di “guerra ibrida“, un approccio che integra strumenti militari convenzionali con tattiche non militari, tra cui la disinformazione, la pressione economica, le operazioni informatiche e la sovversione politica. Il pensiero strategico russo, come articolato da figure di alto livello, considera queste componenti non come elementi separati, ma come un fronte unificato.

 

Un’articolazione chiara di questa dottrina è emersa nel discorso del 2019 del Generale Valery Gerasimov, Capo di Stato Maggiore delle Forze Armate russe. Egli ha affermato che “le tecnologie dell’informazione stanno diventando uno dei tipi di armi più promettenti”, sottolineando come lo spazio informativo, privo di confini nazionali definiti, offra “la possibilità di effetti remoti e segreti non solo contro le infrastrutture informative di importanza critica, ma anche contro la popolazione di un paese, influenzando direttamente la condizione della sicurezza nazionale di uno stato”.

 

Questa visione è pienamente recepita dalle istituzioni occidentali. Il Concetto Strategico della NATO del 2022 identifica la Russia come la minaccia più significativa e diretta alla sicurezza euro-atlantica, specificando che Mosca utilizza mezzi convenzionali, informatici e ibridi, inclusa la disinformazione, per stabilire sfere di influenza e ottenere il controllo attraverso la coercizione, la sovversione e l’aggressione. La disinformazione, quindi, non è un’attività collaterale, ma uno strumento di proiezione di potenza, considerato una forma di “guerra permanente” condotta anche in tempi di pace formale.

 

   1.2 La Psicologia della Propaganda: Seminare Sfiducia, Non Conversione

 

L’obiettivo psicologico fondamentale della propaganda del Cremlino non è, nella maggior parte dei casi, convincere il pubblico della veridicità di una specifica narrazione. L’obiettivo strategico è più profondo e corrosivo: erodere la distinzione stessa tra realtà e finzione. Inondando lo spazio informativo con un volume travolgente di narrazioni contraddittorie, mezze verità e palesi falsità, la strategia mira a generare confusione e cinismo. L’intento finale non è far sì che un cittadino europeo creda alla versione russa di un evento, ma che smetta di credere a qualsiasi versione, inclusa quella del proprio governo, dei media tradizionali o degli esperti.

 

Questo processo di “inquinamento informativo” ha lo scopo di indurre sfiducia e apatia. Quando i cittadini non sanno più a chi o a cosa credere, la loro fiducia nelle istituzioni democratiche si sgretola, rendendo le società più fragili e più facili da manipolare.

La propaganda russa non cerca di cambiare le idee delle persone da zero, ma piuttosto di provocare un’azione attingendo a pensieri ed emozioni preesistenti all’interno di una data società. Sfrutta le divisioni, le paure e i risentimenti già presenti, amplificandoli per raggiungere i propri scopi. Questo spiega perché le campagne si concentrano così spesso su questioni interne divisive nei paesi target, come la migrazione, le politiche economiche o le controversie sociali.

 

EUROPEISTI:          La natura di questa dottrina rivela una profonda asimmetria strategica.

 

Mentre infatti le democrazie liberali si fondano sul principio del libero scambio di idee in un mercato aperto dell’informazione, la dottrina russa, non considera tale spazio come un forum per il dibattito, ma un dominio operativo da plasmare e controllare. Sfrutta le caratteristiche fondamentali delle società aperte — la libertà di espressione, l’indipendenza dei media e l’apertura dei mercati — e le trasforma in vulnerabilità sistemiche.

 

Non si tratta di una battaglia di idee su un piano di parità, ma di una deliberata strumentalizzazione del sistema avversario contro sé stesso.

 

Di conseguenza, le contromisure che si limitano a smentire singole falsità (“fact-checking“) si rivelano strutturalmente insufficienti. Una difesa efficace deve necessariamente affrontare la natura sistemica della minaccia, lavorando per ricostruire la fiducia nelle istituzioni democratiche e rafforzare la resilienza della società nel suo complesso, piuttosto che combattere una battaglia persa in partenza, fatto per fatto.

 

  1. Sezione:

Obiettivi Strategici del Cremlino in Europa

Le campagne di disinformazione russe in Europa non sono casuali, ma rispondono a una serie di obiettivi strategici interconnessi, volti a riconfigurare l’equilibrio di potere a favore di Mosca. Questi obiettivi vanno dalla destabilizzazione delle alleanze internazionali alla manipolazione dei processi democratici interni, fino alla legittimazione delle proprie azioni militari.

2.1 Minare la Coesione Transatlantica ed Europea

L’obiettivo strategico primario è indebolire e frammentare le alleanze chiave che rappresentano un contrappeso alla potenza russa: la NATO e l’Unione Europea. Le operazioni informative mirano a erodere il sostegno pubblico e la volontà politica che sono alla base di queste istituzioni.

 

  • Nei confronti della NATO, le narrative del Cremlino dipingono costantemente l’Alleanza come un’entità aggressiva ed espansionista che “accerchia” la Russia. Questa narrazione, smentita dai fatti e dalla natura difensiva dell’Alleanza, è progettata per instillare paura e ridurre il sostegno popolare alla NATO all’interno degli Stati membri, presentando le misure di difesa collettiva come provocazioni inutili.

 

  • All’interno dell’Unione Europea, la disinformazione agisce per amplificare le divisioni esistenti tra gli Stati membri su questioni chiave come la politica migratoria, l’energia o il bilancio. Le campagne promuovono attivamente partiti e movimenti euroscettici, sia di estrema destra che di estrema sinistra, che condividono l’obiettivo di indebolire l’integrazione europea. Un obiettivo specifico è sabotare il processo decisionale dell’UE, in particolare per quanto riguarda le sanzioni contro la Russia e il sostegno militare ed economico all’Ucraina, presentando tali politiche come dannose per gli interessi dei cittadini europei.

2.2 Destabilizzare i Processi Democratici Nazionali

Un secondo pilastro della strategia russa è l’interferenza diretta nei processi democratici degli Stati europei, con l’obiettivo di erodere la fiducia dei cittadini nelle elezioni e nelle istituzioni che le governano. Questa tattica si manifesta in due modi principali.

 

➢ In primo luogo, attraverso il sostegno mirato a specifiche fazioni politiche. Le campagne di disinformazione promuovono attivamente partiti populisti, nazionalisti ed estremisti che, per ragioni ideologiche o opportunistiche, adottano posizioni filorusse o comunque disruptive per l’ordine liberale.

Esempi evidenti si riscontrano in Germania, con la promozione dell’AfD e del BSW, e in Francia, con il sostegno al “Rassemblement National”.

 

➢ In secondo luogo, le campagne mirano a delegittimare il processo elettorale stesso, diffondendo narrazioni sulla corruzione, sui brogli e sulla manipolazione dei voti. L’obiettivo è spesso quello di incoraggiare l’astensionismo o di spingere gli elettori verso candidati anti-sistema e contrari alle politiche occidentali, come la fornitura di armi a Kiev.

2.3 Legittimare la Politica Estera e le Azioni Militari

 

La disinformazione è uno strumento cruciale per creare un ambiente informativo favorevole alle azioni della Russia sulla scena internazionale, in particolare per quanto riguarda la guerra di aggressione contro l’Ucraina. Questo avviene attraverso due meccanismi principali.

 

  • Il primo è la creazione di “alibi informativi” (information alibis). Si tratta di una tecnica sofisticata che consiste nel diffondere preventivamente false narrazioni per deviare la responsabilità di future azioni militari o atrocità. Ad esempio, accusare l’Ucraina di utilizzare scudi umani o di preparare “provocazioni” poco prima di colpire un’area civile serve a precostituire una giustificazione e a confondere l’opinione pubblica internazionale.

 

  • Il secondo meccanismo è il revisionismo storico. Il Cremlino investe enormi risorse nel riscrivere la storia per adattarla alle proprie narrazioni geopolitiche. L’esempio più eclatante è la massiccia campagna per associare l’Ucraina al “nazismo” e al “genocidio”, con un aumento vertiginoso dell’uso di queste parole chiave nei media russi nei mesi precedenti l’invasione del 2022, al fine di giustificare l’aggressione.

2.4 Creare Caos e Polarizzazione Sociale

 

Infine, un obiettivo pervasivo è quello di identificare e sfruttare le faglie sociali, politiche, etniche e culturali esistenti all’interno delle società europee per esacerbarle e generare caos. La strategia non è necessariamente quella di far prevalere una parte in un dibattito, ma di rendere il dibattito stesso più tossico, la società più divisa e il tessuto sociale più fragile.

 

Le campagne russe spesso alimentano entrambe le parti di una controversia, che si tratti di migrazione, diritti LGBTQ+, politiche climatiche o vaccinazioni. L’obiettivo è aumentare la polarizzazione, minare la coesione sociale e rendere più difficile per le democrazie raggiungere un consenso e funzionare efficacemente.

 

EUROPEISTI:          Un aspetto particolarmente preoccupante emerso di recente è la convergenza strategica tra la Russia e la Cina. Rapporti dell’intelligence italiana e dell’UE evidenziano come le reti di disinformazione russe e cinesi amplificano reciprocamente i propri contenuti. Questa non è una semplice coincidenza di interessi, ma una convergenza strategica nella propaganda anti-occidentale contro l’UE, gli Stati Uniti e la NATO.

 

Questo fenomeno crea una minaccia informativa più formidabile e sfaccettata. Implica una potenziale divisione del lavoro o, quantomeno, un ecosistema che si auto-rafforza, in cui le narrazioni di un attore (ad esempio, quelle russe sull’Ucraina) ottengono una maggiore portata e legittimità grazie alla rete dell’altro, e viceversa. Di conseguenza, le strategie di contrasto europee non possono più concentrarsi sulla Russia in modo isolato, ma devono tenere conto di questa minaccia sinergica, che dispone di una base di risorse più ampia e di una gamma di narrazioni più vasta di quanto ogni singolo attore potrebbe schierare da solo.

  1. Sezione:

L’Architettura dell’Influenza – Organizzazione, Costi e Scala

 

La macchina della disinformazione russa non è un insieme disorganizzato di attori, ma un’architettura complessa, multilivello e ben finanziata, che opera su una scala industriale. Comprendere la sua struttura, i suoi costi e il suo volume è fondamentale per apprezzare la portata della sfida e per calibrare adeguatamente le risposte.

3.1 L’Ecosistema della Disinformazione: Attori e Organizzazione

 

L’apparato di influenza del Cremlino è un ecosistema gerarchico e interconnesso che combina attori statali e non statali per massimizzare l’impatto e offuscare l’attribuzione.

 

  • Comando e Controllo Statale: le operazioni sono guidate strategicamente dai più alti livelli del governo russo. Figure come il Presidente Vladimir Putin, il Ministro degli Esteri Sergey Lavrov e alti funzionari dell’amministrazione presidenziale come Sergei Kiriyenko sono stati identificati come i principali promotori di queste campagne, a dimostrazione di una direzione strategica centralizzata e top-down.

 

  • Servizi di Intelligence: i servizi segreti russi, in particolare l’intelligence militare (GRU), sono attori chiave nell’esecuzione delle operazioni più sofisticate. Il GRU è stato collegato a gruppi di hacker come APT28 (noto anche come Fancy Bear) e a campagne di influenza complesse come ‘Storm-1516’, che combinano attacchi informatici, deepfake e interferenze elettorali.

 

  • Media Controllati dallo Stato: canali come RT (precedentemente “Russia Today”) e Sputnik costituiscono il braccio palese della propaganda. Trasmettendo in decine di lingue e operando in centinaia di paesi, fungono da veicolo per diffondere le narrazioni del Cremlino a un pubblico globale, presentandole sotto la veste di giornalismo alternativo.

 

  • Organizzazioni Proxy e di Facciata: questo strato è cruciale per garantire la “plausible deniability” (negabilità plausibile). Include una varietà di entità:

 

  • Fabbriche di Troll” (Troll Farms): la famigerata “Internet Research Agency” (IRA), con sede a San Pietroburgo e a lungo controllata da Yevgeniy Prigozhin, è stata pioniera nell’uso di account falsi per inondare i social media e manipolare il dibattito pubblico.
  • Successori Moderni: dopo la parziale dissoluzione dell’IRA, sono emerse nuove entità più sofisticate. La “Social Design Agency” (SDA) e la sua rete sono state identificate come le forze dietro la complessa campagna ‘Doppelgänger’.

 

  • GONGOs (Government-Affiliated Non-Governmental Organizations): organizzazioni come ANO ‘Dialog’ o la “Fondazione per la Lotta all’Ingiustizia” (un’altra creatura di Prigozhin) vengono utilizzate per riciclare le narrazioni del Cremlino e conferire loro una patina di legittimità, facendole apparire come iniziative della società civile.

 

  • Reti Informali: alla base dell’ecosistema si trova una rete diffusa di attori che amplificano i messaggi in modo apparentemente organico. Questa rete include blogger militari (“voyenkors” o “Z-bloggers“) con un vasto seguito, influencers sui social media, gruppi di hacktivisti filorussi che conducono attacchi DDoS e cittadini comuni che, consapevolmente o meno, condividono e diffondono la propaganda. Questo approccio bottom-up crea l’illusione di un sostegno spontaneo e diffuso.

3.2 L’Economia della Disinformazione: Budget e Costi

 

Sebbene le cifre esatte siano tenute segrete, i dati disponibili indicano un investimento finanziario massiccio e continuativo.

 

Budget dei Media Statali: il budget annuale di RT è stimato intorno a €270 milioni, una cifra paragonabile a quella di grandi emittenti internazionali come BBC World, che le consente di competere sulla scena mediatica globale.

 

Costi delle “Fabbriche di Troll“: già nel 2013, il budget annuale dell’Internet Research Agency era stimato in 10 milioni di dollari USA. Entro settembre 2016, il solo budget mensile per un singolo progetto (denominato “Project Lakhta“) superava i 73 milioni di rubli, equivalenti a oltre 1,25 milioni di dollari USA al mese, con centinaia di dipendenti.

 

EUROPEISTI:          questi investimenti creano una profonda asimmetria con le risorse destinate al contrasto. A titolo di confronto, la spesa totale dell’Unione Europea per combattere la disinformazione tra il 2015 e il 2020 è stata di soli €50 milioni. Questa disparità evidenzia la difficoltà per le democrazie di competere su un piano puramente quantitativo.

 

3.3 La Scala Industriale delle Operazioni: Volume e Portata

 

La strategia russa si basa su un volume di contenuti tale da saturare l’ambiente informativo.

 

  • Analisi del SEAE: un’analisi del Servizio Europeo per l’Azione Esterna (SEAE) condotta nel 2024 ha esaminato 505 incidenti di “Manipolazione delle Informazioni e Ingerenza Straniera” (FIMI) che hanno coinvolto circa 38.000 canali distribuiti in 90 paesi.

 

  • La campagna ‘Doppelgänger’: questa singola operazione ha utilizzato centinaia di migliaia di account inautentici su X (ex Twitter) per pubblicare milioni di tweet, raggiungendo in alcuni momenti picchi di diversi post al secondo. Si stima che abbia raggiunto 38 milioni di persone solo in Germania tra agosto 2023 e marzo 2024.

 

  • Database EUvsDisinfo: il progetto faro dell’UE ha documentato e archiviato oltre 14.000 casi individuali di disinformazione pro-Cremlino dal 2015, fornendo un’idea della persistenza e della vastità della minaccia. Uno studio ha analizzato 14.497 casi registrati tra il 2015 e il 2022.

La seguente tabella riassume i principali attori dell’apparato di guerra informativa russo, fornendo una visione strutturata della loro organizzazione e delle loro tattiche.

 

Attore/Gruppo Affiliazione/Controllo Noto Budget/Risorse Stimate Tattiche Principali Principali Obiettivi/Campagne
Internet Research Agency (IRA) Yevgeniy Prigozhin (precedentemente) >$1,25M/mese (2016) Fabbriche di troll, astroturfing sui social media, commenti di massa Elezioni USA 2016, Brexit, destabilizzazione interna USA
‘Doppelgänger’ (SDA) Social Design Agency (SDA), entità russe Sconosciuto, ma significativo Clonazione di siti web, contenuti generati da IA, botnet su X Elezioni in Germania, Francia, USA; minare il sostegno all’Ucraina
APT28 (Fancy Bear) GRU (Intelligence Militare Russa) Risorse statali di intelligence Hacking e leaking (es. DNC hack), attacchi informatici a infrastrutture Elezioni USA 2016, #MacronLeaks, Parlamento tedesco, partiti politici
Storm-1516 GRU Unità 29155 (presunta) Risorse statali di intelligence Deepfake, interferenze elettorali, operazioni di sabotaggio fisico Elezioni 2024 in Francia e Germania, discredito dell’Ucraina
RT / Sputnik Stato Russo RT: ~€270M/anno Propaganda palese, giornalismo “alternativo”, diffusione di narrazioni Pubblico globale, con focus su Europa, USA, America Latina, Africa
‘Portal Kombat’ TigerWeb (Crimea), legami con Inforos (sanzionato UE, legato al GRU) Sconosciuto Amplificazione di contenuti, manipolazione SEO, nessuna creazione originale Pubblico francese e occidentale, discredito della leadership ucraina
  1. Sezione:

Il Manuale della Disinformazione – Una Tassonomia delle Tattiche

 

L’arsenale tattico della Russia è vasto, diversificato e in continua evoluzione. Le operazioni combinano tecniche di manipolazione del contenuto con metodi di disseminazione tecnica avanzata, integrando sempre più spesso il dominio informativo con operazioni cibernetiche e fisiche. Questa sezione offre una tassonomia delle tattiche chiave impiegate.

4.1 Manipolazione del Contenuto e della Narrativa

 

  • “Alibi Informativi” (Information Alibis): è una delle tattiche più sofisticate e preoccupanti, poiché sposta la disinformazione da strumento reattivo a elemento proattivo della pianificazione militare. Consiste nella diffusione preventiva di informazioni false per deviare la responsabilità di un’azione militare o di un’atrocità imminente. Ad esempio, diffondere la notizia che l’esercito ucraino sta piazzando esplosivi in un teatro a Mariupol, per poi colpire quel teatro e sostenere che si è trattato di una “provocazione” ucraina, è un chiaro esempio di questa tecnica. Questo metodo è stato utilizzato per mascherare la responsabilità e consentire l’attacco deliberato a obiettivi civili.

 

  • Revisionismo Storico e dirottamento della Narrativa: una tattica fondamentale è la distorsione sistematica della storia per adattarla agli obiettivi politici attuali. L’esempio più evidente è l’equiparazione dell’Ucraina contemporanea al regime nazista, con un aumento di quasi il 300% dell’uso della parola chiave “nazista” nei media russi prima dell’invasione. Allo stesso modo, la crisi dell’indipendenza catalana è stata strumentalizzata per creare un parallelo con l’annessione della Crimea, nel tentativo di legittimare le azioni russe.

 

  • Whataboutism” e Deflessione: una tecnica classica, ereditata dall’arsenale sovietico, consiste nel rispondere a una critica o a un’accusa non affrontandola nel merito, ma lanciando una contro-accusa, spesso non correlata. Questo serve a creare una falsa equivalenza morale, a confondere il pubblico e a deviare l’attenzione dal comportamento russo.

 

  • Riciclaggio di Narrative (Narrative Laundering): le narrazioni vengono diffuse attraverso un doppio flusso, top-down e bottom-up, per massimizzarne la credibilità e la portata. Una narrazione può nascere da dichiarazioni ufficiali di alti funzionari russi (top-down) per poi essere amplificata e “viralizzata” da una rete di media, bot e influencer. Al contrario, una teoria del complotto o una falsità può emergere da canali marginali e anonimi (bottom-up) per poi essere ripresa e legittimata dai media statali, che la presentano come un’opinione “popolare” o “alternativa”.

4.2 Disseminazione Tecnica e Amplificazione

 

  • Comportamento Inautentico Coordinato (CIB): è l’uso su larga scala di reti di account automatizzati (bot) e account gestiti da persone (troll) per simulare un vasto sostegno a una determinata narrazione. Questi network vengono usati per inondare gli hashtag, attaccare i critici, amplificare artificialmente i messaggi pro-Cremlino e creare un falso consenso sociale.

 

  • Clonazione di Siti Web (‘Doppelgänger‘): questa tattica prevede la creazione di copie quasi identiche di siti web di media autorevoli (come Der Spiegel, Welt, Le Monde) e di portali governativi. Su questi siti clonati vengono pubblicati articoli falsi, che acquisiscono un’aura di credibilità grazie all’aspetto familiare del sito. Questi links vengono poi diffusi massicciamente sui social media.

 

  • Saturazione Multi-Piattaforma: le campagne non si limitano a una singola piattaforma, ma operano in modo coordinato su un ampio spettro di social media, tra cui X, Facebook, Instagram, YouTube, TikTok e Telegram. Spesso vengono utilizzati annunci a pagamento su piattaforme come Facebook per indirizzare il traffico verso i siti web clonati o i portali di disinformazione, sfruttando i meccanismi pubblicitari delle piattaforme stesse contro di loro.

4.3 Tecniche Avanzate ed Emergenti

 

  • Intelligenza Artificiale Generativa: l’uso di modelli linguistici di grandi dimensioni (LLM) sta rivoluzionando la produzione di disinformazione. L’IA viene utilizzata per generare automaticamente articoli di notizie false e post sui social media in più lingue, aumentando drasticamente la velocità, il volume e la qualità apparente dei contenuti. L’IA viene anche impiegata per creare deepfake (video o audio falsificati) e altri media sintetici per impersonare figure pubbliche o creare false prove.

 

  • Disinformazione Basata sull’Identità: questa tattica sfrutta la politica identitaria creando account e gruppi falsi progettati per attrarre specifici segmenti demografici (ad esempio, comunità LGBTQ+, minoranze razziali, gruppi conservatori, veterani). Una volta guadagnata la fiducia di queste comunità, gli account diffondono contenuti divisivi e polarizzanti su misura per quel gruppo.

 

  • Manipolazione dei Motori di Ricerca (SEO): reti come ‘Portal Kombat’ non creano necessariamente contenuti originali, ma utilizzano tecniche avanzate di ottimizzazione per i motori di ricerca (SEO) per amplificare contenuti pro-russi già esistenti. In questo modo, manipolano gli algoritmi di ricerca per far apparire le loro narrazioni preferite in cima ai risultati, aumentandone la visibilità e la credibilità percepita.

4.4 Integrazione con Operazioni Cinetiche e Ibride

 

Le operazioni informative non avvengono in un vuoto, ma sono sempre più integrate con azioni nel mondo fisico e cibernetico.

 

  • Attacchi Ibridi: le campagne di disinformazione spesso precedono, accompagnano o seguono attacchi informatici contro infrastrutture critiche, istituzioni governative o aziende strategiche.

 

  • Sabotaggio e Spionaggio: si osserva una crescente tendenza a combinare la disinformazione con atti fisici di sabotaggio, spesso affidati a proxy non russi per complicare l’attribuzione. Esempi includono il posizionamento di finte bare vicino alla Torre Eiffel per protestare contro il sostegno francese all’Ucraina, seguito da una massiccia campagna di amplificazione online dell’evento.

 

EUROPEISTI:          Questa evoluzione tattica dimostra che l’apparato di disinformazione russo è un’organizzazione che apprende. Si è passati dalla quantità bruta delle prime “fabbriche di troll” dell’IRA a una qualità e integrazione molto più sofisticate. Il fallimento relativo di un’operazione ad alto impatto come il #MacronLeaks nel 2017 (che si basava su un modello di “hack-and-leak“), ha probabilmente incoraggiato una transizione verso metodi più persistenti, corrosivi e difficili da attribuire, come la campagna ‘Doppelgänger‘ e le operazioni ibride che combinano il digitale con il fisico. Questo indica un adattamento strategico basato sui successi e sui fallimenti delle operazioni passate.

 

Di conseguenza, le strategie di contrasto devono essere altrettanto dinamiche e capaci di anticipare la prossima evoluzione tattica, piuttosto che limitarsi a reagire a quella precedente.

  1. Sezione:

Principali Teatri Operativi – Analisi per Paese

 

Sebbene la guerra dell’informazione russa abbia come bersaglio l’intera Europa, alcune nazioni sono state colpite con particolare intensità e persistenza a causa del loro peso strategico, delle loro vulnerabilità interne o del loro ruolo nel sostenere l’Ucraina. Questa sezione analizza le operazioni nei principali teatri europei.

5.1 Germania: l’Obiettivo Numero Uno

 

La Germania è costantemente identificata come il principale bersaglio europeo delle campagne di disinformazione russe. Questo è dovuto alla sua posizione di leadership economica e politica nell’UE, al suo ruolo cruciale come fornitore di aiuti all’Ucraina e alla presenza di vulnerabilità politiche interne che il Cremlino cerca di sfruttare.

 

  • Campagne e Tattiche: la campagna ‘Doppelgänger’ è l’esempio più eclatante e su larga scala. Utilizzando decine di migliaia di account falsi su X e milioni di post, questa operazione mira sistematicamente a minare la fiducia nel governo di coalizione, a criticare il sostegno a Kiev e a promuovere partiti estremisti come l’Alternativa per la Germania (AfD) e l’Alleanza Sahra Wagenknecht (BSW), entrambi con posizioni filorusse o fortemente critiche nei confronti delle politiche occidentali.

 

  • Narrative Principali: le narrazioni diffuse si concentrano su temi attentamente scelti per risuonare con le preoccupazioni della popolazione tedesca. I temi ricorrenti includono l’accusa al governo di trascurare i propri cittadini per favorire l’Ucraina, l’affermazione che le sanzioni contro la Russia sono inefficaci e dannose per l’economia tedesca, e l’alimentazione di teorie cospirative sulla politica migratoria ed energetica.

 

  • Minacce Ibride: oltre alla disinformazione, i servizi di intelligence tedeschi hanno lanciato l’allarme per un “drammatico aumento” di attività di spionaggio, sabotaggio e attacchi informatici da parte di attori russi. Il capo del servizio di intelligence estero (BND) è arrivato ad affermare: “che ci piaccia o no, siamo in conflitto diretto con la Russia”, a testimonianza della gravità della minaccia percepita.

5.2 Francia: una Guerra dell’Informazione su Più Fronti

 

La Francia è un altro obiettivo primario, presa di mira a causa del suo fermo sostegno all’Ucraina, della sua influenza geopolitica (in particolare in Africa) e dell’ospitare eventi di alto profilo come le Olimpiadi di Parigi 2024 e le recenti elezioni legislative, che rappresentano opportunità ideali per operazioni di destabilizzazione.

 

  • Campagne e Tattiche: l’agenzia statale francese VIGINUM, specializzata nel contrasto alle ingerenze digitali straniere, ha smascherato molteplici reti russe sofisticate. Tra queste spiccano ‘Portal Kombat’, una rete di amplificazione di contenuti pro-Cremlino; ‘Matriochka’, una campagna che utilizza contenuti deepfake per screditare figure pubbliche; e ‘Storm-1516’, un’operazione legata al GRU focalizzata sull’interferenza elettorale e sull’uso di tattiche ibride.

 

  • Operazioni Ibride: le operazioni russe in Francia si distinguono per la loro capacità di fondere il mondo digitale con quello fisico. Esempi noti includono l’imbrattamento di muri a Parigi con stelle di David o il posizionamento di finte bare ai piedi della Torre Eiffel. Questi atti, progettati per generare shock e divisione, vengono poi massicciamente amplificati online attraverso reti di bot come RRN (Reliable Recent News) per massimizzarne l’impatto psicologico e mediatico.

 

  • Obiettivi Specifici: le campagne mirano a indebolire la figura del Presidente Emmanuel Macron, a promuovere il partito di estrema destra Rassemblement National, a screditare l’organizzazione delle Olimpiadi di Parigi e a incrinare le alleanze della Francia.

5.3 Italia: sfruttare la Vulnerabilità Politica ed Economica

 

L’intelligence italiana identifica la Russia come il principale attore della minaccia ibrida contro il paese, sfruttando un panorama politico storicamente frammentato e le preoccupazioni economiche dei cittadini.

 

  • Narrative Principali: la disinformazione mira a minare la posizione dell’Italia all’interno del G7 e dell’UE. Campagne specifiche hanno preso di mira la decisione italiana di uscire dall’accordo sulla Via della Seta, promuovendo narrazioni di un “allontanamento” intenzionale di Roma dall’Occidente. Il conflitto a Gaza ha fornito “nuova linfa” alle iniziative di disinformazione di Mosca, che ha sfruttato la situazione per diffondere narrazioni a favore della causa palestinese in chiave anti-occidentale.

 

  • Obiettivi Elettorali: le campagne prendono di mira i processi elettorali incoraggiando l’astensione o il voto per partiti euroscettici e contrari alla linea di fermezza contro la Russia, in particolare per quanto riguarda la fornitura di armi all’Ucraina. L’intelligence ha tracciato almeno 75 distinte narrative di disinformazione pro-Cremlino in lingua italiana.

5.4 Regno Unito: il Caso Studio della Brexit

 

Il referendum sulla Brexit del 2016 rappresenta un caso emblematico dell’interferenza russa, sebbene il suo impatto diretto sul risultato finale rimanga oggetto di dibattito accademico e politico.

 

  • Metodi Utilizzati: le prove di attività russe sono sostanziose. Ricercatori hanno identificato circa 150.000 account Twitter legati alla Russia che hanno twittato sulla Brexit, tra cui oltre 400 account confermati come appartenenti all’Internet Research Agency (IRA). Il media statale RT ha fornito una copertura sistematicamente unilaterale e pro-Leave durante la campagna.

 

  • Impatto vs. Attività: la difficoltà nel caso della Brexit risiede nel distinguere tra l’attività di interferenza e il suo impatto causale. Mentre alcuni studi accademici sostengono che vi siano “poche prove” che l’ingerenza russa sia stata decisiva per l’esito del voto, i rapporti del Parlamento britannico hanno concluso che l’interferenza russa nella politica del Regno Unito è “un fatto comune”. Questo caso studio evidenzia la sfida critica dell’attribuzione e, soprattutto, della valutazione dell’impatto reale delle campagne informative.

5.5 Spagna: amplificare la Crisi Catalana

 

Il referendum per l’indipendenza della Catalogna del 2017 è stato un’opportunità che le reti russe hanno prontamente sfruttato per seminare divisione all’interno di uno Stato membro chiave dell’UE.

 

  • Tattiche: i Media pro-Cremlino (RT, Sputnik) e una vasta rete di bot hanno amplificato in modo massiccio i messaggi a favore del separatismo. Hanno dominato la conversazione online, dipingendo lo Stato spagnolo come repressivo e autoritario.

 

  • Narrative: la crisi catalana è stata strumentalizzata per creare false equivalenze con l’annessione della Crimea da parte della Russia, nel tentativo di legittimare retroattivamente le proprie azioni illegali in Ucraina e di presentare i movimenti separatisti come una tendenza inarrestabile in un’Europa in declino.

5.6 Gli Stati Baltici: la Linea del Fronte Storica

 

Estonia, Lettonia e Lituania convivono con la guerra dell’informazione russa da decenni. Questa lunga esposizione le ha rese pioniere nello sviluppo di strategie di resilienza tra le più avanzate al mondo.

 

  • Modello di Risposta: hanno adottato un approccio “dell’intera società” (whole-of-society). Questo modello integra l’alfabetizzazione mediatica nei programmi scolastici fin dalla tenera età, promuove un vivace ecosistema di controllori dei fatti della società civile (come i famosi “Elfi Baltici”, volontari che combattono la disinformazione online) e riconosce formalmente lo spazio informativo come un dominio della difesa nazionale, al pari di terra, mare e aria.

 

  • Hub Internazionali: la loro esperienza le ha rese un punto di riferimento per l’Occidente. Ospitano istituzioni chiave della NATO come il “Centro di Eccellenza per le Comunicazioni Strategiche” (StratCom COE) a Riga e il “Centro di Eccellenza per la Difesa Cibernetica Cooperativa” (CCDCOE) a Tallinn, attraverso i quali condividono le loro competenze e le lezioni apprese con il resto dell’Alleanza.

Sezione 6:

Valutazione dell’Impatto – Misurare i Risultati della Propaganda Russa

 

Determinare l’efficacia delle campagne di disinformazione russe è un compito complesso. L’impatto non può essere misurato semplicemente in termini di risultati elettorali alterati. È necessario considerare un più ampio spettro di effetti, che vanno dalla manipolazione misurabile dell’ambiente informativo al fallimento di operazioni specifiche, fino alla corrosione a lungo termine della fiducia democratica.

6.1 Effetti Quantificabili sull’Ambiente Informativo

 

Sebbene sia difficile dimostrare che la disinformazione abbia cambiato il voto di un singolo individuo, il suo impatto sul discorso online è spesso misurabile e significativo.

 

  • Aumento della Polarizzazione e della Tossicità: ricerche accademiche hanno dimostrato che l’attività dell’Internet Research Agency (IRA) ha avuto un effetto misurabile sull’aumento del grado di polarizzazione e del linguaggio tossico nelle conversazioni online su piattaforme come Twitter e Reddit. Le loro operazioni non si sono limitate a diffondere contenuti, ma hanno attivamente peggiorato la qualità del dibattito pubblico.

 

  • Dirottamento della Conversazione: durante il referendum sull’indipendenza catalana, le reti di amplificazione russe hanno avuto un successo innegabile nel dirottare la narrazione online. Le storie a favore dell’indipendenza, massicciamente promosse da questi network, sono state condivise 966.132 volte, contro le sole 47.321 condivisioni delle storie favorevoli al governo spagnolo. Questo rapporto di oltre 20 a 1 dimostra una chiara vittoria nella battaglia per il dominio narrativo.

 

6.2 Fallimenti rilevanti: L’Operazione #MacronLeaks del 2017

 

Il caso del cosiddetto #MacronLeaks è stata un’operazione di hack-and-leak (una forma di operazione di influenza abilitata dalla cibernetica in cui gli attaccanti infiltrano un sistema per rubare informazioni sensibili o riservate -hack- e poi le rilasciano strategicamente -leak- per influenzare l’opinione pubblica, manipolare il processo decisionale o danneggiare l’organizzazione, l’individuo o la nazione presa di mira) contro la campagna presidenziale di Emmanuel Macron, che rappresenta l’esempio più chiaro e studiato di un tentativo di interferenza su larga scala fallito.

 

L’analisi delle ragioni di questo fallimento offre lezioni preziose:

 

  • Fattori Strutturali: la Francia presentava un ambiente politico e mediatico meno vulnerabile rispetto ad altri paesi. Il suo sistema elettorale a due turni rende più difficile per un attore esterno prevedere e influenzare l’esito finale. Inoltre, una radicata cultura di pensiero critico e scetticismo ha fornito un certo grado di resilienza sociale.

 

  • Contromisure Efficaci: il successo della difesa francese è stato il risultato di una preparazione e di una risposta coordinate. La campagna di Macron aveva anticipato un attacco di questo tipo. Le autorità francesi, tra cui l’agenzia per la sicurezza informatica (ANSSI) e la commissione di controllo elettorale (CNCCEP), hanno agito rapidamente. I media francesi hanno rispettato un accordo di non dare risalto ai documenti trapelati nelle ore cruciali prima del voto, rispettando il silenzio elettorale e privando l’operazione del suo ossigeno mediatico.

 

  • Goffaggine Operativa: gli aggressori hanno commesso diversi errori. I dati sono stati rilasciati troppo a ridosso del voto, lasciando un tempo insufficiente per la loro diffusione e analisi. Il contenuto stesso dei leaks si è rivelato in gran parte deludente, un misto di emails banali e documenti falsificati in modo così grossolano da apparire assurdi. L’enorme quantità di dati ha sopraffatto il pubblico anziché persuaderlo, generando disinteresse piuttosto che scandalo.

6.3 Successo Percepito e Corrosione a Lungo Termine

 

Nonostante fallimenti come il #MacronLeaks, l’obiettivo finale della Russia non è spesso la vittoria in una singola battaglia, ma la vittoria di una guerra di logoramento contro la fiducia democratica. Su questo fronte, le prove di un successo corrosivo sono più evidenti.

 

  • Penetrazione nel Discorso Mainstream: l’agenzia di intelligence francese VIGINUM valuta che le campagne più recenti, come Storm-1516, siano “riuscite” e stiano “ottenendo risultati”. Il loro successo non si misura in voti, ma nel fatto che le loro narrazioni e i loro temi riescono a penetrare nel dibattito pubblico, venendo talvolta adottati, consciamente o inconsciamente, da figure politiche e media mainstream.

 

  • Erosione della Fiducia: in Germania, i sondaggi mostrano una crescente approvazione pubblica per le narrazioni pro-russe e un livello di fiducia storicamente basso nel governo e nei media tradizionali. Questo suggerisce che la strategia corrosiva a lungo termine sta avendo effetto, indebolendo il legame tra cittadini e istituzioni. Il fatto che il Cremlino continui a investire miliardi di euro in queste operazioni suggerisce che i suoi vertici siano “piuttosto soddisfatti dei risultati”.

 

EUROPEISTI:          Questo quadro complesso impone una riflessione critica su come l’Occidente definisce e misura il “successo” o il “fallimento” della disinformazione. Concentrarsi esclusivamente sugli esiti elettorali è un approccio miope. La vera minaccia, e il vero obiettivo strategico russo, risiede nella lenta e sistematica erosione della coesione sociale e della fiducia nelle fondamenta stesse della democrazia. Il fallimento di un’operazione ad alto impatto come il #MacronLeaks non significa che la strategia generale stia fallendo; al contrario, potrebbe aver semplicemente insegnato agli operatori russi a preferire metodi più subdoli, persistenti e, a lungo termine, forse ancora più dannosi.

 

Sezione 7:

La Controffensiva Europea – Risposte Istituzionali

 

Di fronte alla crescente minaccia della disinformazione russa, l’Unione Europea ha sviluppato un apparato istituzionale e normativo per difendere il proprio spazio informativo. Questo apparato -la cui efficacia è ancora oggetto di un intenso dibattito- si basa su tre pilastri principali:

  1. a) un quadro normativo per le piattaforme digitali (7.1)
  2. b) capacità di rilevamento e analisi (7.2) e
  3. c) una rete per la ricerca e il fact-checking (7.3)

7.1 Quadro Normativo

 

Gli strumenti normativi principali dell’UE per affrontare la disinformazione sono il “Digital Services Act” e il “Codice di Buone Pratiche sulla Disinformazione”.

 

  • Digital Services Act (DSA): entrato in vigore per le piattaforme di maggiori dimensioni ad agosto 2023, il DSA rappresenta un cambiamento epocale, passando da un modello di autoregolamentazione a uno di co-regolamentazione. Obbliga le Piattaforme Online di Grandi Dimensioni (VLOP) e i Motori di Ricerca di Grandi Dimensioni (VLOSE) a condurre valutazioni dei rischi sistemici che i loro servizi comportano, inclusa la diffusione di disinformazione, e a implementare misure di mitigazione adeguate.

 

  • Codice di Buone Pratiche sulla Disinformazione (CoP): introdotto nel 2018 e rafforzato nel 2022, il Codice contiene 44 impegni e 128 misure specifiche. Con l’avvento del DSA, è diventato un Codice di Condotta formale, che funge da parametro di riferimento per valutare la conformità delle piattaforme agli obblighi del DSA.

Gli impegni coprono aree cruciali come:

  • la demonetizzazione (tagliare i ricavi pubblicitari a chi diffonde disinformazione),
  • la trasparenza della pubblicità politica,
  • l’integrità dei servizi (lotta a Bot e account falsi) e
  • il potenziamento degli utenti, dei ricercatori e dei fact-checkers.

 

EUROPEISTI:          Nonostante l’ambizione del quadro normativo, la sua efficacia è seriamente compromessa dalla scarsa attuazione da parte delle piattaforme. Una valutazione approfondita condotta dall’Osservatorio Europeo dei Media Digitali (EDMO) nel 2024 ha concluso che gli sforzi delle piattaforme sono “molto limitati, privi di coerenza e di un impegno significativo“. La relazione evidenzia come le piattaforme adottino un approccio reattivo anziché proattivo, con report di trasparenza spesso superficiali e simbolici. Ancor più grave, alcune piattaforme hanno fatto marcia indietro sui loro impegni: Microsoft e Google si sono ritirate da importanti misure relative al fact-checking, e si stima che tra il 2022 e il 2025 le piattaforme abbiano ridotto del 31% il numero di misure a cui si erano impegnate. L’accesso ai dati per i ricercatori indipendenti, un punto chiave del Codice, rimane una delle aree più deboli, con processi opachi e risultati deludenti.

7.2 Rilevamento ed Esposizione

 

Il braccio operativo dell’UE per il contrasto alla disinformazione è guidato dal Servizio Europeo per l’Azione Esterna (SEAE).

 

  • East StratCom Task Force: istituita nel 2015, questa task force ha il mandato di “prevedere, affrontare e rispondere” alle campagne di disinformazione della Federazione Russa. È l’unità principale dell’UE dedicata a questo compito.

 

  • eu: è il progetto di punta della task force, un sito web pubblico che funge da database aperto e ricercabile di casi di disinformazione pro-Cremlino. Ogni caso viene documentato con l’analisi della narrazione falsa e una smentita basata sui fatti. Dalla sua creazione, il database ha raccolto e analizzato migliaia di casi, coprendo un’ampia gamma di argomenti, dalla guerra in Ucraina alla pandemia di COVID-19, fino alle crisi migratorie.

 

  • Sistema di Allarme Rapido (RAS): creato nel 2019, il RAS è una rete sicura che collega le istituzioni dell’UE e gli Stati membri per condividere in tempo reale informazioni e analisi sulle campagne di disinformazione emergenti, consentendo una risposta più rapida e coordinata.

 

7.3 Ricerca e Fact-Checking

 

Per rafforzare la base di conoscenze e le capacità di verifica, l’UE ha sostenuto la creazione dell’EDMO – l’Osservatorio Europeo dei Media Digitali

 

  • Mandato e Struttura: EDMO è una comunità multidisciplinare indipendente che riunisce fact-checkers, ricercatori accademici ed esperti di alfabetizzazione mediatica. Il suo scopo è analizzare la disinformazione, sviluppare servizi di fact-checking e sostenere le autorità pubbliche nella valutazione dell’attuazione del Codice di Buone Pratiche.

 

  • Rete Europea: EDMO funziona come un hub centrale con sede a Firenze, collegato a una rete di 14 hub nazionali o regionali che coprono l’intera Unione Europea. Questa struttura a rete favorisce la collaborazione transfrontaliera, la conduzione di indagini cooperative su campagne di disinformazione pan-europee e la pubblicazione di briefing mensili sulle tendenze emergenti.

 

La tabella seguente illustra la discrepanza tra gli impegni presi dalle piattaforme nel Codice di Buone Pratiche e la loro effettiva implementazione, come valutato da rapporti indipendenti.

 

Potenziamento dei Ricercatori (Accesso ai Dati)

Piattaforma Azione Riportata (Sintesi) Efficacia e Lacune Valutate
Meta (Facebook/Instagram) Accesso tramite ICPSR Non fornisce metriche nazionali; processi opachi; dati poco utili per studi su disinformazione
Google (Search/YouTube) Strumenti di ricerca disponibili Utilità limitata; governance e trasparenza carenti; ritirato da fact-checking
Microsoft (Bing/LinkedIn) Programmi beta menzionati Nessuna prova chiara di accesso; minimo impegno nella cooperazione; ritirato da fact-checking
TikTok API e dashboard con documentazione Progressi visibili; ma accesso complesso e usabilità poco chiara

Potenziamento dei Fact-Checker (Cooperazione e Strumenti)

Piattaforma Azione Riportata (Sintesi) Efficacia e Lacune Valutate
Meta (Facebook/Instagram) Partnership multiple dichiarate Nessuna valutazione d’impatto; supporto a lungo termine incerto; dashboard non verificate
Google (Search/YouTube) Processi integrati e supporto finanziario Mancano metriche esaustive; ritirato da impegni chiave sul fact-checking
Microsoft (Bing/LinkedIn) Riferimenti minimi alla cooperazione Nessun reporting sull’integrazione; assenza di strumenti per fact-checker
TikTok Partnership e processi documentati Ampia gamma di partner, ma mancano dati di impatto e dettagli per paese

 

Sezione 8:

Strategie di Difesa Nazionale – Un’Analisi Comparativa

 

Mentre l’Unione Europea fornisce un quadro normativo e di coordinamento, la responsabilità primaria della difesa contro le minacce ibride, inclusa la disinformazione, ricade sugli Stati membri. Le nazioni europee hanno adottato modelli diversi per affrontare questa sfida, che possono essere raggruppati in approcci distinti: l’agenzia dedicata, il coordinamento federale, il modello “dell’intera società” e i quadri in via di sviluppo.

8.1 Il Modello dell’Agenzia Dedicata: VIGINUM in Francia

 

La Francia ha optato per un modello centralizzato, creando VIGINUM (Vigilance et protection contre les ingérences numériques étrangères), un’agenzia statale specificamente dedicata al monitoraggio e all’esposizione delle interferenze digitali straniere. L’agenzia opera sotto l’autorità del Segretariato Generale per la Difesa e la Sicurezza Nazionale (SGDSN).

 

  • Punti di Forza: questo approccio concentra competenze specialistiche in un unico ente, garantendo agilità e una chiara catena di comando. VIGINUM ha linee di comunicazione dirette con il governo e le piattaforme tecnologiche e ha l’autorità di pubblicare rapporti tecnici dettagliati su campagne specifiche (come ‘Portal Kombat’ o ‘Matriochka‘), contribuendo in modo significativo a sensibilizzare l’opinione pubblica e gli alleati.
  • Limiti: il mandato di VIGINUM è strettamente limitato alle interferenze di origine straniera, escludendo la disinformazione di matrice domestica. Inoltre, per proteggere le libertà civili, le sue capacità operative sono regolamentate: non può interagire con gli utenti, infiltrarsi in gruppi privati o creare avatar, limitandosi all’analisi di dati open-source.

8.2 Il Modello del Coordinamento Federale: l’approccio della Germania

 

Data la sua struttura federale, la Germania ha adottato un approccio basato sul coordinamento tra molteplici ministeri e agenzie, con il Ministero Federale dell’Interno che svolge un ruolo di guida.

 

  • Struttura: il modello tedesco si basa su una task force interministeriale sulla disinformazione, sulla comunicazione proattiva da parte dei vari dicasteri e sul sostegno a progetti di alfabetizzazione mediatica gestiti dalla società civile. I servizi di intelligence interni (BfV) e l’agenzia per la sicurezza informatica (BSI) svolgono ruoli cruciali nel monitoraggio delle minacce e nella protezione delle infrastrutture.
  • Sfide: un modello distribuito può risultare più lento e meno agile di un’agenzia centralizzata. Inoltre, in Germania è particolarmente acceso il dibattito pubblico e politico sul giusto equilibrio tra sicurezza e privacy, il che può limitare gli strumenti legali e tecnici a disposizione dei servizi di intelligence per contrastare le minacce.

8.3 Il Modello “dell’Intera Società”: gli Stati Baltici

 

Estonia, Lettonia e Lituania, essendo state in prima linea nella guerra dell’informazione russa per decenni, hanno sviluppato un approccio olistico e integrato che coinvolge l’intera società nella costruzione della resilienza.

 

  • Pilastri: questo modello si fonda su tre pilastri interconnessi:

 

  • Governo: le istituzioni statali hanno formalmente riconosciuto lo spazio informativo come un dominio della difesa nazionale. Hanno creato unità di comunicazione strategica forti e proattive e non esitano a smentire pubblicamente la disinformazione o a bandire i canali di propaganda più dannosi.
  • Società Civile: esiste un ecosistema vibrante e attivo di giornalisti investigativi, organizzazioni non governative e gruppi di volontari, come i famosi “Elfi Baltici”, che monitorano e contrastano attivamente la disinformazione online, spesso in collaborazione con le istituzioni.
  • Educazione: l’alfabetizzazione mediatica e digitale è profondamente integrata nei programmi scolastici nazionali fin dalla prima infanzia. L’obiettivo non è solo insegnare a riconoscere le notizie false, ma a sviluppare un pensiero critico duraturo.

8.4 Il Quadro in via di sviluppo dell’Italia

 

Il nostro Paese viene percepito come un paese arrivato in ritardo nella lotta alla disinformazione, ma che ora sta accelerando la costruzione delle proprie strutture difensive.

 

  • Struttura: è stata istituita l’Agenzia per la Cybersicurezza Nazionale (ACN), che ha il compito di coordinare le misure di sicurezza, compreso il contrasto alla disinformazione online legata alle minacce ibride. Il Dipartimento delle Informazioni per la Sicurezza (DIS) e i servizi di intelligence sono responsabili dell’analisi e del reporting sulle minacce ibride.

 

  • Approccio: la strategia nazionale mira a combinare sicurezza e sviluppo, ponendo l’accento sui partenariati pubblico-privato per aumentare la resilienza e sulla partecipazione proattiva alle iniziative dell’UE e della NATO.

La tabella seguente offre un confronto strutturato dei diversi modelli nazionali di contrasto alla disinformazione.

 

Paese Agenzia/Struttura Guida Quadro Giuridico/Politico Chiave Approccio all’Alfabetizzazione Mediatica Modello di Partenariato Pubblico-Privato
Francia VIGINUM (agenzia dedicata) Legge contro la manipolazione dell’informazione Programmi scolastici (CLEMI), campagne pubbliche Linee dirette con piattaforme, collaborazione con organizzazioni di fact-checking
Germania Ministero Federale dell’Interno (coordinamento) Risposta federale coordinata, leggi sulla sicurezza Sostegno a ONG e progetti specifici Dialogo con le piattaforme, sostegno ai media indipendenti
Stati Baltici Approccio “dell’intera società” Concetto di Difesa Nazionale (include dominio informativo) Integrata nel curriculum nazionale fin dalla tenera età “Elfi” volontari, collaborazione con i Centri di Eccellenza NATO
Italia Agenzia per la Cybersicurezza Nazionale (ACN) / DIS Strategia Nazionale di Cybersicurezza Inclusa nella strategia, attualmente in fase di sviluppo Partenariati pubblico-privato per la resilienza

 

Sezione 9:

Costruire una Difesa Completa – Un Piano d’Azione

EUROPEISTI:          L’analisi condotta in questo rapporto dimostra che la guerra dell’informazione russa è una minaccia persistente, adattiva e sistemica. Contrastarla richiede una strategia altrettanto completa, dinamica e multi-livello. Non esiste una “soluzione magica”, ma un portafoglio di interventi coordinati può aumentare significativamente la resilienza delle democrazie europee.

 

Analizzando i risultati del rapporto, proponiamo una serie di raccomandazioni attuabili, rivolte ai principali attori coinvolti.

9.1 Per l’UE e i Governi Nazionali

 

  • Rafforzare e Applicare la Regolamentazione esistente: l’approccio basato in gran parte sulla buona volontà delle piattaforme, come incarnato dal Codice di Buone Pratiche, si è dimostrato insufficiente. È imperativo applicare con rigore il Digital Services Act (DSA), conducendo audit indipendenti e approfonditi sulle misure di mitigazione del rischio delle piattaforme e imponendo sanzioni significative in caso di non conformità. La co-regolamentazione deve essere sostenuta da una reale volontà politica di far rispettare le regole.

 

  • Imporre Costi agli Attori Maligni: le sanzioni devono andare oltre il colpire singoli individui. È necessaria un’azione coordinata per sanzionare l’intero ecosistema della disinformazione: le società di facciata, i fornitori di tecnologia, gli intermediari finanziari e le entità coinvolte in campagne come ‘Doppelgänger’ o ‘Storm-1516’. L’obiettivo deve essere quello di smantellare l’infrastruttura economica e tecnica che sostiene queste operazioni.

 

  • Investire in Comunicazioni Strategiche Proattive: la difesa non può essere solo reattiva. È fondamentale passare da una postura di “smentita” (debunking) a una di comunicazione proattiva. I governi e le istituzioni UE devono sviluppare e diffondere attivamente narrazioni positive e basate sui fatti che riaffermino i valori democratici e i benefici dell’appartenenza all’UE e alla NATO. Queste comunicazioni devono essere mirate, prodotte nelle lingue locali e adattate alle comunità specifiche prese di mira dalla propaganda russa.

 

  • Migliorare la Condivisione dell’Intelligence: approfondire e accelerare la condivisione di informazioni e analisi sulle minacce ibride è cruciale. Questo deve avvenire sia all’interno dell’UE, attraverso il potenziamento del Sistema di Allarme Rapido (RAS), sia tra l’UE e la NATO, per migliorare le capacità di rilevamento, attribuzione e risposta coordinata alle campagne.

9.2 Per le Piattaforme Tecnologiche

 

  • Garantire Trasparenza Radicale e Accesso ai Dati: l’attuale livello di condivisione dei dati da parte delle piattaforme è del tutto inadeguato. È necessario imporre per legge l’accesso ai dati per ricercatori indipendenti e accreditati. Questi dati sono essenziali per studiare in modo indipendente i flussi di disinformazione, l’impatto degli algoritmi di amplificazione e l’efficacia delle contromisure, superando i report di trasparenza auto-prodotti e spesso superficiali.

 

  • Responsabilità Algoritmica (Algorithmic Accountability): i modelli di business delle piattaforme, che premiano i contenuti sensazionalistici e divisivi per massimizzare il coinvolgimento, sono un motore fondamentale della disinformazione. Le piattaforme devono essere obbligate a riprogettare i loro sistemi di raccomandazione per limitare la propagazione virale della disinformazione. Devono essere trasparenti sul funzionamento di questi algoritmi e dimostrare di averne mitigato i rischi sistemici.

 

  • Demonetizzazione Efficace: è fondamentale che la disinformazione non sia un’attività redditizia. Le piattaforme devono implementare sistemi robusti per garantire che i diffusori di notizie false non possano beneficiare dei ricavi pubblicitari. Ciò richiede una cooperazione più stretta con l’intero settore pubblicitario per impedire che gli annunci compaiano accanto a contenuti di disinformazione e per bloccare gli annunci che contengono essi stessi disinformazione.

9.3 Per la Società Civile, i Media e il Mondo Accademico

 

  • Rafforzare l’Ecosistema del Fact-Checking Indipendente: è necessario aumentare e rendere sostenibili i finanziamenti per le organizzazioni di fact-checking indipendenti e non governative in tutti gli Stati membri e in tutte le lingue dell’UE. La creazione di un organismo permanente e indipendente, sul modello dell’EDMO ma con maggiori risorse, potrebbe coordinare questi sforzi e garantire standard di qualità elevati.

 

  • Sostenere e Ricostruire il Giornalismo Locale: il declino del giornalismo locale ha creato vasti “deserti informativi” che la disinformazione si affretta a riempire. È un investimento strategico per la democrazia sostenere il giornalismo locale attraverso finanziamenti pubblici, modelli filantropici e l’esplorazione di nuovi modelli di business. Un tessuto mediatico locale sano e affidabile è uno dei più potenti baluardi contro la manipolazione.

 

  • Espandere e Innovare l’Alfabetizzazione Mediatica: implementare programmi di alfabetizzazione mediatica completi e a lungo termine per tutte le fasce d’età, dalle scuole all’educazione per adulti. Questi programmi devono evolvere oltre la semplice guida (come riconoscere una fake news) per insegnare il pensiero critico, la resilienza emotiva alla manipolazione e una profonda comprensione di come funziona l’ecosistema informativo, inclusi gli algoritmi e i modelli di business delle piattaforme.

9.4 Per i Cittadini

 

  • Promuovere una Cultura del Consumo Critico: è essenziale promuovere una norma sociale del “pensa prima di condividere”. I cittadini devono essere incoraggiati a mettere in discussione i contenuti emotivamente carichi e a verificare le fonti prima di amplificare un messaggio. Fornire strumenti semplici e accessibili per il controllo delle fonti è un passo importante.

 

  • Impegno Empatico e Strategico: i cittadini possono svolgere un ruolo attivo nel contrastare la disinformazione nelle proprie cerchie sociali. È importante fornire loro strategie su come farlo in modo empatico ed efficace, correggendo l’informazione falsa senza umiliare chi l’ha condivisa e senza amplificare ulteriormente la narrazione dannosa.

 

  • Segnalare la Disinformazione: occorre creare canali chiari, unificati e ben pubblicizzati attraverso i quali i cittadini possano segnalare sospette campagne di manipolazione informativa straniera alle autorità nazionali competenti e alle piattaforme, contribuendo così a un sistema di allerta diffuso.

Bibliografia

  1. Presentation: “Russian and Other (Dis)information Undermining WMD Arms Control: Considerations for NATO” NATO Headquarters,, https://wmdcenter.ndu.edu/Portals/97/RF%20and%20other%20Disinfo%20on%20Arms%20Control_remarks%20to%20NATO%20Committee%20on%20Prolif_12%20July%202022_FINAL_1.pdf 2. De-bunking Russian disinformation on NATO, https://www.nato.int/cps/en/natohq/115204.htm 3. Countering Kremlin’s Information War | GLOBSEC – A Global Think Tank, https://www.globsec.org/what-we-do/publications/countering-kremlins-information-war 4. 2023 – THE RUSSIAN WAR ON TRUTH – REPORT … – NATO PA, https://www.nato-pa.int/document/2023-russian-war-truth-report-garriaud-maylam-014-cds 5. Australian Parliamentary Delegation report – Parliament of Australia, https://www.aph.gov.au/-/media/05_About_Parliament/Delegation_report_-_NATO_PA_Oct_2023.pdf 6. (Un)Powerful Propaganda: Russia’s Ineffective Use of Information Activities Against NATO’s Enhanced Forward Presence – Air University, https://www.airuniversity.af.edu/Wild-Blue-Yonder/Articles/Article-Display/Article/3521788/unpowerful-propaganda-russias-ineffective-use-of-information-activities-against/ 7. L’intelligence denuncia la subdola campagna di disinformazione russa in Italia – Linkiesta.it, https://www.linkiesta.it/2024/02/intelligence-relazione-russia-minaccia-ibrida/ 8. Germany in the Crosshairs of Russia’s Information War – CEPA, https://cepa.org/article/germany-in-the-crosshairs-of-russias-information-war/ 9. Perché le spie russe amano l’Italia: la relazione degli 007 italiani – Policy Maker, https://www.policymakermag.it/italia/perche-le-spie-russe-amano-litalia-la-relazione-degli-007-italiani/ 10. Russian disinformation is growing in Germany – DW – 10/15/2024, https://www.dw.com/en/russian-disinformation-is-growing-in-germany/a-70506294 11. Two Years after Russia’s Invasion of Ukraine, Lessons Learnt Can Strengthen EU Sanctions Policy – PISM, https://pism.pl/publications/two-years-after-russias-invasion-of-ukraine-lessons-learnt-can-strengthen-eu-sanctions-policy 12. La disinformazione minaccia la coesione dell’Unione Europea – Geopolitica.info, https://www.geopolitica.info/disinformazione-unione-europea-russia/ 13. Tracking Russian Disinformation On X During The French Parliamentary Elections, https://quointelligence.eu/2024/07/tracking-russian-disinformation-x-french-elections/ 14. THE INTERNET RESEARCH AGENCY IN … – Cardiff University, https://www.cardiff.ac.uk/__data/assets/pdf_file/0007/2733325/The-Internet-Research-Agency-In-Europe-2014-2016.pdf?ref=dispatch.the-citizens.com 15. New Report Exposes Russia’s Strategic Disinformation Warfare – Global Rights Compliance, https://globalrightscompliance.org/manufacturing-impunity-russian-information-operations-in-ukraine/ 16. Disinformazione russa, il SEAE lancia un nuovo strumento web. – Sardegnagol, https://www.sardegnagol.eu/disinformazione-russa-il-seae-lancia-un-nuovo-strumento-web/ 17. View of Manufacturing rage: The Russian Internet Research Agency’s political astroturfing on social media | First Monday, https://firstmonday.org/ojs/index.php/fm/article/view/10801/9723 18. Internet Research Agency – UNSW, https://www.unsw.edu.au/content/dam/pdfs/unsw-canberra/dri/2023-02-research/2023-02-Understanding-Mass-Influence—A-case-study-of-the-Internet-Research-Agency.pdf 19. Measuring the effect of Russian Internet Research Agency information operations in online conversations – NATO Strategic Communications Centre of Excellence, https://stratcomcoe.org/publications/measuring-the-effect-of-russian-internet-research-agency-information-operations-in-online-conversations/95 20. Rapporto Ue sulla disinformazione, 90 Paesi colpiti: da Mosca “narrazione ingannevole”, https://www.lumsanews.it/rapporto-ue-sulla-disinformazione-90-paesi-colpiti-da-mosca-narrazione-ingannevole/ 21. Russian-linked cybercampaigns put a bull’s-eye on France. Their focus? The Olympics and elections | AP News, https://apnews.com/article/france-election-disinformation-russia-olympics-be18d688677240686df200096018f221 22. Statement of condemnation by the North Atlantic Council concerning Russian malicious cyber activities – NATO, https://www.nato.int/cps/en/natohq/official_texts_237067.htm 23. France strongly condemns Russian actors and their intermediaries implicated in the Storm-1516 manoeuvres (6 May 2025) – Ministry for Europe and Foreign Affairs, https://www.diplomatie.gouv.fr/en/country-files/russia/news/2025/article/france-strongly-condemns-russian-actors-and-their-intermediaries-implicated-in 24. Risky Bulletin: France says Russian influence operations are getting …, https://risky.biz/risky-bulletin-france-says-russian-influence-operations-are-getting-better-achieving-results/ 25. Russia’s Long-Term Campaign of Disinformation in Europe, https://carnegieendowment.org/europe/strategic-europe/2020/03/russias-long-term-campaign-of-disinformation-in-europe?lang=en 26. How Russia’s Internet Research Agency Built its Disinformation Campaign – -ORCA, https://orca.cardiff.ac.uk/id/eprint/122489/1/Political%20Quarterly%20IRA%20Dawson%20%26%20Innes.pdf 27. The Internet Research Agency: Spreading Disinformation | Small Wars Journal by Arizona State University, https://smallwarsjournal.com/2020/10/30/internet-research-agency-spreading-disinformation/ 28. MPF REPORT SERIES 8/2025: Beyond Operation Doppelgänger: A Capability Assessment of the Social Design Agency, https://mpf.se/download/18.7cffbee41969f6d83e115221/1747230166207/Beyond%20Operation%20Doppelganger.pdf 29. MPF REPORT SERIES 8/2025 Beyond Operation Doppelgänger: A Capability Assessment of the Social Design Agency – Psychological Defence Research Institute, https://www.psychologicaldefence.lu.se/sites/psychologicaldefence.lu.se/files/2025-05/Beyond%20Operation%20Doppelg%C3%A4nger.pdf 30. Russian intelligence controls warlord’s disinformation empire with AI – YouTube, https://www.youtube.com/watch?v=bXDPNBD_FSQ 31. DIS, la relazione annuale sulla sicurezza evidenzia un mondo sempre più instabile. Preoccupa la minaccia cyber – CyberSecurity Italia, https://www.cybersecitalia.it/dis-la-relazione-annuale-sulla-sicurezza-un-mondo-sempre-piu-instabile-preoccupa-la-minaccia-cyber/44970/ 32. Internet Research Agency Indictment – Department of Justice, https://www.justice.gov/d9/fieldable-panel-panes/basic-panes/attachments/2018/02/16/internet_research_agency_indictment.pdf 33. How the Russians did it – Business – CNN, http://money.cnn.com/2018/02/16/media/internet-research-agency-mueller-indictment/index.html 34. Internet Research Agency – Wikipedia, https://en.wikipedia.org/wiki/Internet_Research_Agency 35. Special report: Disinformation affecting the EU, https://op.europa.eu/webpub/eca/special-reports/disinformation-9-2021/en/ 36. 3rd EEAS Report on Foreign Information Manipulation and Interference Threats, https://www.eeas.europa.eu/sites/default/files/documents/2025/EEAS-3nd-ThreatReport-March-2025-05-Digital-HD.pdf 37. Germany Targeted by the Pro-Russian Disinformation Campaign “Doppelgänger”, https://www.auswaertiges-amt.de/resource/blob/2682484/2da31936d1cbeb9faec49df74d8bbe2e/technischer-bericht-desinformationskampagne-doppelgaenger-1–data.pdf 38. East StratCom Task Force – Wikipedia, https://en.wikipedia.org/wiki/East_StratCom_Task_Force 39. Euvsdisinfo dataset – Mendeley Data, https://data.mendeley.com/datasets/yhdtkszvgp 40. How the Russian meddling machine won the online battle of the illegal referendum | Catalonia | Spain | EL PAÍS English, https://english.elpais.com/elpais/2017/11/12/inenglish/1510478803_472085.html 41. How Russian news networks are using Catalonia to destabilize Europe – EL PAÍS English, https://english.elpais.com/elpais/2017/09/25/inenglish/1506323273_063367.html 42. Social media ‘bots’ used to boost political messages during Brexit referendum, https://www.citystgeorges.ac.uk/research/impact/case-studies/social-media-bots-used-to-boost-political-messages-during-brexit-referendum 43. Doppelgänger | Russia-Aligned Influence Operation Targets …, https://www.sentinelone.com/labs/doppelganger-russia-aligned-influence-operation-targets-germany/ 44. Fact check: Russia’s influence on Germany’s 2025 election – DW, https://www.dw.com/en/russian-disinformation-aims-to-manipulate-german-2025-election/a-71664788 45. Protecting democracy against hybrid attacks – deutschland.de, https://www.deutschland.de/en/topic/politics/disinformation-cyberattacks-germany 46. French security agency reveals Russian propaganda campaign, https://securingdemocracy.gmfus.org/incident/french-security-agency-reveals-russian-propaganda-campaign/ 47. Doppelganger: How Russia mimicked real news sites and created fake ones to target US audiences – DFRLab, https://dfrlab.org/2024/09/18/doppelganger-us-election/ 48. French security agency reveals Russian propaganda network …, https://securingdemocracy.gmfus.org/incident/french-security-agency-reveals-russian-propaganda-network/ 49. Protecting Europe’s critical infrastructure from Russian hybrid threats, https://www.cer.eu/publications/archive/policy-brief/2023/protecting-europes-critical-infrastructure-russian-hybrid 50. French intel chief warns of evolving Russian hybrid operations, ‘existential threat’ to Europe, https://therecord.media/french-intelligence-chief-russia-threat 51. The “#Macron leaks” operation: a post-mortem – Atlantic Council, https://www.atlanticcouncil.org/in-depth-research-reports/report/the-macron-leaks-operation-a-post-mortem/ 52. Successfully Countering Russian Electoral Interference – CSIS, https://www.csis.org/analysis/successfully-countering-russian-electoral-interference 53. German authorities on alert for election disinformation | Digital Watch Observatory, https://dig.watch/updates/german-authorities-on-alert-for-election-disinformation 54. German secret services alarmed by Russian threat – VOA, https://www.voanews.com/a/7822201.html 55. Democratic defence: How Italy can lead the fight against Russian disinformation | ECFR, https://ecfr.eu/wp-content/uploads/2023/07/Democratic-defence-How-Italy-can-lead-the-fight-against-Russian-disinformation.pdf 56. Russian interference in the 2016 Brexit referendum – Wikipedia, https://en.wikipedia.org/wiki/Russian_interference_in_the_2016_Brexit_referendum 57. Russian interference in UK politics and society – House of Commons …, https://commonslibrary.parliament.uk/research-briefings/cdp-2017-0255/ 58. Did Russia Meddle in Brexit? A Social Media Study Casts Doubt – DemTech, https://demtech.oii.ox.ac.uk/did-russia-meddle-in-brexit-a-social-media-study-casts-doubt/ 59. The Impact of the Media on the Catalonia Referendum – РЕТОРИКА И КОМУНИКАЦИИ, https://rhetoric.bg/the-impact-of-the-media-on-the-catalonia-referendum 60. Catalan referendum stokes fears of Russian influence – Politico.eu, https://www.politico.eu/article/russia-catalonia-referendum-fake-news-misinformation/ 61. In the existential fight against Russian disinformation, Baltic states are utilising a variety of tools, including play – Equal Times, https://www.equaltimes.org/in-the-existential-fight-against 62. Countering Russian Disinformation The Baltic Nations’ Way – UMBC: University Of Maryland, Baltimore County, https://umbc.edu/stories/countering-russian-disinformation-the-baltic-nations-way/ 63. countering russian information influence in the baltic states: a comparison of approaches adopted in estonia, latvia, and lithuania, https://www.kvak.ee/files/2023/01/Sojateadlane-19-2022-Johannes-Voltri-COUNTERING-RUSSIAN-INFORMATION-INFLUENCE-IN-THE-BALTIC-STATES-A-COMPARISON-OF-APPROACHES-ADOPTED-IN-ESTONIA-LATVIA-AND-LITHUANIA.pdf 64. What’s the best way to deal with Russian information manipulation? Latvia has answers., https://www.atlanticcouncil.org/blogs/new-atlanticist/whats-the-best-way-to-deal-with-russian-information-manipulation-latvia-has-answers/ 65. French Voters Should Consider Election Integrity Issues as They Vote in 2022, https://www.gmfus.org/news/french-voters-should-consider-election-integrity-issues-they-vote-2022 66. Digital Services Act – Publications Office of the EU – European Union, https://op.europa.eu/en/publication-detail/-/publication/c1d645d0-42f5-11ee-a8b8-01aa75ed71a1/language-en 67. Digital Services Act: Political Disinformation a Commission Priority – Arthur Cox LLP, https://www.arthurcox.com/knowledge/digital-services-act-political-disinformation-a-commission-priority/ 68. Digital Services Act study: Risk management framework for online disinformation campaigns, https://digital-strategy.ec.europa.eu/en/library/digital-services-act-study-risk-management-framework-online-disinformation-campaigns 69. Code of Practice on Disinformation (2022) | Shaping Europe’s digital future, https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation 70. A strengthened EU Code of Practice on Disinformation – European Commission, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/new-push-european-democracy/protecting-democracy/strengthened-eu-code-practice-disinformation_en 71. Implementing the EU Code of Practice on Disinformation: An …, https://edmo.eu/publications/implementing-the-eu-code-of-practice-on-disinformation-an-evaluation-of-vlopse-compliance-and-effectiveness-jan-jun-2024/ 72. The EU’s Code of Practice on Disinformation is Now Part of the Digital Services Act. What Does It Mean? | TechPolicy.Press, https://www.techpolicy.press/the-eus-code-of-practice-on-disinformation-is-now-part-of-the-digital-services-act-what-does-it-mean/ 73. DISINFO DATABASE – EUvsDisinfo, https://euvsdisinfo.eu/disinformation-cases/ 74. EUvsDisinfo | Detecting, analysing, and raising awareness about disinformation – EUvsDisinfo, https://euvsdisinfo.eu/ 75. EUvsDisinfo: a Dataset for Multilingual Detection of Pro-Kremlin Disinformation in News Articles – arXiv, https://arxiv.org/html/2406.12614v1 76. European Digital Media Observatory, https://cmpf.eui.eu/projects/edmo-project/ 77. EDMO – European Digital Media Observatory, https://www.eui.eu/research-hub?id=european-digital-media-observatory-1 78. Fact-Checking Overview – EDMO, https://edmo.eu/areas-of-activities/fact-checking/fact-checking-overview/ 79. About – EDMO Ireland, https://edmohub.ie/index.php/about/ 80. Statement by Ms Catherine Colonna – Foreign digital interference – France’s detection of an information manipulation campaign (13.06.23), https://www.diplomatie.gouv.fr/en/french-foreign-policy/security-disarmament-and-non-proliferation/news/2023/article/statement-by-ms-catherine-colonna-foreign-digital-interference-france-s 81. Building Resilience Against Election Influence Operations: Preparing for the European Elections in 2024 and Beyond – The International Foundation for Electoral Systems: IFES, https://www.ifes.org/pub/building-resilience-against-election-influence-operations-/case-studies 82. combating malign foreign influences: mobilising the whole nation against the new cold war, https://www.senat.fr/fileadmin/Structures_temporaires/commissions_d_enquete/CE_Influences_etrangeres/Essentiel_en_anglais.pdf 83. Foreign digital interference – Result of investigations into the Russian (…) – Permanent Representation of France to the OSCE, https://osce.delegfrance.org/Foreign-digital-interference-Result-of-investigations-into-the-Russian 84. Homepage – Measures taken by the Federal Government to fight disinformation – BMI, https://www.bmi.bund.de/SharedDocs/schwerpunkte/EN/disinformation/measures-taken-by-the-federal-government.html 85. Protecting the 2025 Bundestag elections from hybrid threats and disinformation, https://www.bmi.bund.de/SharedDocs/schwerpunkte/EN/disinformation-election/disinformation-election-artikel.html 86. NATO’s approach to counter information threats, https://www.nato.int/cps/en/natohq/topics_219728.htm 87. Italian National Cybersecurity Strategy | 2022-2026 – Digital Watch Observatory, https://dig.watch/resource/italian-national-cybersecurity-strategy-2022-2026 88. Countering Disinformation Effectively: An Evidence-Based Policy Guide, https://carnegieendowment.org/research/2024/01/countering-disinformation-effectively-an-evidence-based-policy-guide?lang=en 89. Improving the Western Strategy to Combat Kremlin Propaganda and Disinformation – Atlantic Council, https://www.atlanticcouncil.org/wp-content/uploads/2018/06/Improving_the_Western_Strategy.pdf 90. 10 Recommendations by the Taskforce on Disinformation and the War in Ukraine – EDMO, https://edmo.eu/publications/10-recommendations-by-the-taskforce-on-disinformation-and-the-war-in-ukraine/ 91. Commission eyes Meta’s revenue programme with Russian-backed media – Euractiv, https://www.euractiv.com/section/tech/news/commission-eyes-metas-revenue-programme-with-russian-backed-media/ 92. France – EDMO, https://edmo.eu/resources/repositories/mapping-the-media-literacy-sector/france/ 93. How to Prevent the Spread of Disinformation About Russia’s War on Ukraine: A Tip Sheet, https://pen.org/disinformation/how-to-fight-disinformation-ukraine/