AGI - Fake news, deep fake, sondaggi falsi. A pochi giorni dalle elezioni presidenziali di Taiwan in programma sabato entra nel vivo la cyberguerra. Una “guerra grigia” che ha sostituito le esercitazioni lungo la linea di confine dei mesi scorsi (raffreddate anche dai nuovi fronti di guerra, primo fra tutti quello ucraino) ma non meno impattante.
Il nuovo leader di Taipei sarà infatti decisivo per formare i nuovi equilibri di potere del Pacifico e in particolare i rapporti sia con Pechino sia con Washington. Se anche Pechino, che da sempre rivendica la titolarità dell’Isola di Formosa, ha sospeso le esercitazioni che si erano viste le scorso agosto questo non significa che abbia deciso dire addio alla sua influenza sull’isola.
Come dimostra peraltro l’insolito tempismo con cui Pechino ha deciso di lanciare a tre giorni alle elezioni un satellite scientifico proprio mentre parlava alla stampa estera il ministro degli Esteri Joseph Wu, gettando nel panico i taiwanesi che hanno ricevuto nel proprio smartphone il messaggio «Allarme presidenziale. Air raid. Missile sullo spazio aereo taiwanese».
E per molti esperti si tratta solo di una anticipazione di quello che vedremo con le elezioni europee del prossimo giugno e più tardi, a novembre, con quelle Usa.
Cos’è la guerra grigia?
Accanto alle più o meno palesi provocazioni si inserisce il concetto di "guerra grigia": una serie di tattiche non convenzionali utilizzate dagli Stati per raggiungere obiettivi strategici senza impegnarsi in un conflitto militare aperto. “Spesso coinvolge attività come attacchi informatici, campagne di disinformazione, pressioni economiche e altri metodi non tradizionali. Questa strategia consente a un paese di avanzare i propri interessi rimanendo al di sotto della soglia che potrebbe provocare una risposta militare convenzionale”, spiega all’AGI Pierguido Iezzi, Ceo di Swascan.
Strategie particolarmente difficili da contrastare proprio perché operano nel campo dell'ambiguità e cadono al di fuori dei confini tradizionali del conflitto armato. “Non dobbiamo assolutamente minimizzare o screditare quanto sta accadendo a Taiwan. È una Cognitive war vera e propria, scatenata per condizionare le elezioni di un Paese sovrano. Quanto sta accadendo è interessante perché potrebbe essere – di fatto – una preview di quanto nel prossimo futuro potrebbe accadere con le elezioni europee e con le presidenziali americane”.
Come funziona la Cognitive war?
Si parte dai media tradizionali controllati, da social media e influencer assoldati per diffondere propaganda e disinformazione in grado di cavalcare le paure o le divisioni della società. Ma tra le tattiche adottate vi sarebbero l'utilizzo di falsi account social, campagne di disinformazione, diffusione di contenuti deepfake, pressioni economiche su aziende e partiti politici taiwanesi.
Lo scorso novembre a Taiwan un video ultra-realistico mostrò il candidato dell'opposizione DPP Lai Ching-te lodare apertamente il programma elettorale del partito filo-cinese Kuomintang. Un endorsement inaspettato che fece scalpore, salvo poi scoprire che quel video era un falso creato ad arte, molto probabilmente in uno dei laboratori high-tech al servizio dell'intelligence di Pechino.
La diffusione di sondaggi elettorali contraffatti in Taiwan, che mostravano il candidato filo-cinese del Kuomintang (KMT) in testa, è stata parte di un ampio tentativo di interferenza elettorale, principalmente attribuito alla Cina. Oltre ai sondaggi falsi, la campagna di disinformazione includeva teorie del complotto contro il Partito Democratico Progressista (DPP) di Taiwan, notizie false su laboratori biologici sviluppati congiuntamente da Stati Uniti e Taiwan, e contenuti volti a incitare tensioni razziali. “Questa disinformazione ha amplificato controversie su vari temi, inclusa la preparazione di Taiwan alla guerra e dubbi sull'appoggio degli Stati Uniti”, spiega Iezzi.
I rischi per le elezioni Europee e Usa
“Social media, bot, deep fake… È evidente che si stanno già preparando le piattaforme che saranno utilizzate anche per le prossime elezioni europee e Usa – ha commentato Iezzi – purtroppo dallo scandalo Cambridge Analytica in poi non si è fatto molto per contenere il rischio, anzi. E di certo l’Intelligenza artificiale è uno strumento che agevola questo tipo di cose e la rende ancora più probabili”.
Si tratta quindi di una anticipazione di quello che si vedrà prossimamente in Europa e Usa? “Certamente – ha poi concluso Iezzi – l’esempio tipico è quello di un video fake di Zelensky che consigliava la resa alla Russia. Dopo poche ore è sato dichiarato fake ma era bastata un’ora perché diventasse virale e fosse visto e ripubblicato da migliaia di persone. Il nodo è che un fact-cheking in tempo reale non esiste e non potrà mai esistere mentre di contro gli strumenti per manipolare le informazioni diventano sempre più semplici e a portata di mano”. Le armi per combattere la disinformazione
Attivisti e organizzazioni della società civile taiwanese stanno cercando di rispondere con vari mezzi. Sono stati introdotti programmi di educazione mediatica e all'informazione nelle scuole pubbliche, per rendere gli studenti più consapevoli e capaci di riconoscere le fake news. Si stimola il pensiero critico e il fact-checking come strumento di autocorrezione.
Parallelamente, sono nate diverse organizzazioni indipendenti che si occupano specificamente di verificare fatti e smascherare bufale. Per esempio, il gruppo Double Think Labs ha creato un’innovativa chatbot anti-disinformazione che individua e contesta in tempo reale messaggi falsi diffusi online. Altri attivisti come Tsao, imprenditore miliardario, stanno finanziando campagne di sensibilizzazione su vasta scala. Tsao ha donato 100 milioni di dollari per addestrare circa 3 milioni di "guerrieri orso nero" tra i civili, insegnando tattiche di resistenza non violenta e di cyber-sicurezza.
In ambito governativo, agenzie come la ACC (Agenzia per la Comunicazione di Taiwan) applicano una politica di "debunking rapido" delle fake news, smontandole entro poche ore con dichiarazioni ufficiali facili da diffondere sui social.