it
it

Psicologia e strategia indiretta

Alessandro Magno, secondo quanto ci narra Polibio, affermava che la propaganda “serve a mantenere e proteggere le vittorie dopo il cessare delle ostilità”.
Una chiave ancora essenziale, questa alessandrina, per comprendere i meccanismi della propaganda e delle psyops contemporanee.
La guerra psicologica attuale, in effetti, è finalizzata soprattutto a cambiare radicalmente e a costruire ex novo le percezioni degli abitanti di un qualsivoglia Stato-obiettivo.
Chi vince a questa guerra, apparentemente indolore, risparmia i costi del conflitto e depotenzia definitivamente l’avversario, qualunque sia la sua forza bellica, un avversario che non ha più la capacità di utilizzare le sue armi, convenzionali o indirette.
Oppure le usa contro sé stesso.
Anche nelle strategie indirette e nelle psyops, comunque, si tratta sempre di interrompere una kill chain, ovvero le tante ondate di un attacco.
E quello che conta, in queste operazioni, è colpire sempre il nemico dove è più debole.
Quindi, stare sempre a debita distanza, anche culturale, dall’avversario, evitare ogni combattimento convenzionale ma utilizzare comunque la psicologia di massa come Alessandro, ovvero per “garantire il risultato” di una vittoria che si consegue con una lotta economica, finanziaria, culturale e simbolica.
Oppure per sostituire la vittoria militare con quella delle psyops. Senza colpo ferire.
La società contemporanea rende, comunque, le cose molto più semplici.
Siamo oggi nella fase della “economia dell’attenzione”, del risparmio di massa del pensiero, la fase dove tutti i messaggi, anche quelli più “alti”, vengono elaborati per essere consumati molto rapidamente, a causa di una soglia di attenzione diffusa sempre molto bassa, quasi da ipnosi o da sonnambulismo.
E, per far selezionare i contenuti voluti, occorre utilizzare due canali psichici e materiali: l’uso dei “neuroni-specchio” della corteccia premotoria F5, e l’utilizzazione massima delle emozioni indotte.
I neuroni-specchio, lo ricordiamo, sono dei particolari neuroni che si attivano, nello stesso modo, sia quando un individuo esegue un’azione sia quando lo stesso individuo osserva la stessa azione (o anche una emozione) eseguita o vissuta da un altro.
Sono la base materiale dell’empatia.
La disinformazione usa le emozioni negative, quindi, e le correla a messaggi utili per l’emettitore. Un messaggio appena astratto, o anche del tutto sensibile e iconico, correlato a una emozione fissa di disagio, fastidio, dolore.
Ecco la cellula iniziale della disinformazione.
L’eccesso di emozioni negative, spesso correlate a tecniche di dezinformatsja, genera sempre, nel singolo soggetto, ansia, stress, abbassa poi i livelli della serotonina e opera sia sulle paure soggettive che su quelle già impiantate nella psiche delle masse.
Dato questo stato indotto della mente, le informazioni che arrivano all’encefalo non vengono più dirette alla corteccia prefrontale, che è abituata e selezionata a utilizzare categorie logiche, ma le informazioni emozionali vengono scaricate direttamente verso la corteccia motoria.
In questa fase il cervello è bloccato dallo stress o da quelle situazioni che la Scuola psicologica di Palo Alto riteneva all’origine della schizofrenia, ovvero il ”doppio legame”, che avviene quando una fonte affettiva emana simultaneamente un messaggio positivo e uno negativo.
Alla fine, c’è la quasi totale disattivazione materiale della corteccia frontale, ovvero avviene la trasformazione dell’homo sapiens sapiens in automa rabbioso.
Ecco l’utilità, per la disinformazione, di utilizzare sempre contenuti violenti o irregolari, nei messaggi, contenuti che aumentano l’aggressività e depotenziano quindi la corteccia.
Si depotenzia allora l’area cerebrale dell’empatia, proprio con i contenuti violenti della comunicazione, o anche con il mix di rumore, ritmo, ripetizione dei suoni, delle luci e dei segni che Marshall McLuhan riteneva caratteristica (e aveva ragione) del nostro tempo, come ci racconta nel suo vecchio testo, scritto con Quentin Fiore, intitolato War and Peace in the Global Village.
Ed ecco l’effetto geo-strategico di queste operazioni: se tutto un Paese viene progressivamente immerso in questo tipo di comunicazione, tutti, classi dirigenti comprese, subiranno un depotenziamento e una inazione temporanea della corteccia frontale.
Allora, quando decideranno, opereranno comunque con pseudoconcetti, reazioni automatiche, luoghi comuni, percezioni errate, stereotipi antichi.
Il nesso politico del futuro sarà l’incontro, quindi tra la tecnologia dei big data e le nuove neuroscienze.
Anche senza richiamare alla memoria H.G. Wells o George Orwell, la possibilità attuale di manipolazione di larghissimi settori della pubblica opinione, in modo stabile, efficace e totale, è già massima.
Chi riesce a manipolare l’avversario vince sempre, chi dimostra invece di essere poroso o di non poter contrastare, con una operazione uguale e contraria, la dezinformacjia psicopolitica di uno Stato avversario, perde sempre.
E, magari, non se ne accorge nemmeno.
Siamo già arrivati nell’epoca delle operazioni di influenza informativa.
Ma in questo contesto le operazioni avverse utilizzano, sia pure nell’epoca del cyberwarfare, soprattutto le vecchie tecniche di manipolazione pubblicitaria tipiche dell’era precedente a Internet.
In primo luogo, c’è il tradizionale effetto bandwagon.
Che sfrutta la naturale tendenza degli esseri umani a conformarsi al loro gruppo di riferimento.
Il tasso di adozione di una idea, di un prodotto, aumenta infatti con l’aumento proporzionale del numero di persone che l’adottano.
Per rinforzare l’effetto bandwagon non c’è poi niente di meglio della “spirale di silenzio”. L’altra faccia della medaglia.
L’isolamento determinato dalla eterodossia è, allora, una ulteriore spinta alla irregimentazione, tratto tipico del bandwagon.
Poi c’è a disposizione della psicopolitica anche quel meccanismo che, dal nome di un’aspirapolvere americano famoso nella pubblicità degli anni ’70, si definisce come Astroturfing.
Consiste nella creazione artificiale di un consenso universale che, però, sembra provenire dal basso, Astroturfing è allora la costruzione di un’aura di successo e di universalità che viene rinforzata da tanti e tanti “testimoni”, spesso retribuiti, che garantiscono sulla validità del bene. O dell’idea politica.
Ma oggi siamo già arrivati all’epoca che John Negroponte prediceva già negli anni ’90, ovvero la fase in cui anche le più evolute tecnologie dell’informazione sarebbero diventate “customizzate”, ovvero sarebbero state adattate rapidamente ad ogni singolo consumatore o elettore.
Naturalmente, più aumenta la personalizzazione più è possibile selezionare i contenuti informativi e di influenza per ogni consumatore-elettore, con evidenti effetti di manipolazione invisibile. E di irregimentazione invisibile.
C’è anche da studiare qui la filter bubble, ovvero l’effetto generato dagli algoritmi di varie piattaforme social che, proprio per customizzare il servizio, creano una trappola informativa che parte dalle preferenze dell’utente.
A ciò corrisponde l’effetto detto delle echo-chambers, quelle aree dei social in cui ognuno si trova a parlare con persone che hanno già la sua stessa idea.
Quindi, echo chambers e filter bubbles selezionano e frazionano il pubblico on line, ma anche quello fuori dalla Rete.
E, spesso, lo polarizzano artificialmente.
Quindi, siamo tornati al vecchio Ivan Ivanovic Pavlov, ovvero alla teoria del rinforzo bio-psicologico delle credenze pregresse, quindi alla costruzione e alla conferma dei riflessi condizionati degli individui e dei gruppi.
Ogni comunicazione politica, in effetti, tende oggi a costruire il proprio riflesso condizionato.
Gli uomini e gli animali, ricordiamo qui la scoperta di Pavlov, generano sempre una risposta ad un determinato stimolo, e, quando il nesso è definitivamente stabilito, quello tra uno stimolo x e risposta y, lo stimolo-chiave elabora sempre automaticamente la stessa risposta, nell’animale come nell’uomo.
E lo stimolo può non avere niente a che fare con il meccanismo generato dalla risposta.
Viene in mente, qui, il linguista De Saussure, quando diceva che il rapporto tra segno e significato è assolutamente libero, non c’è un nesso oggettivo tra il “bue” materiale e la parola “bue”, ma esso è comunque più forte di ogni legame naturale.
In questo ambito, dobbiamo anche studiare le azioni simboliche. Azioni, queste, che sono pensate per convogliare un valore simbolico, e potente, di un qualsiasi fatto, valore artificiale che viene inviato a un vasto pubblico, per sollecitare una risposta.
Nel senso di Pavlov.
Un bambino naufragato nel Mediterraneo, una ragazza uccisa in modo efferato, un barista che arriva al successo a Londra. Ecco un esempio dei fatti che vengono isolati dal loro contesto, a cui viene poi indotto un potere simbolico e che, alla fine, determinano una risposta di massa a questo complicato “stimolo” pavloviano.
Ogni fatto, poi, vale se e solo se lo si incorpora una narrazione. Il cervello umano non è fatto per analizzare in ogni momento i fatti isolati, ma per organizzarli in una storia, che ha una dimensione temporale e che, soprattutto, ha una fine.
E riguarda sempre persone, anche se parla di semplici fatti.
La personalizzazione è insita, anch’essa, nel cervello umano, e ogni persona ha comunque un valore positivo o negativo; può essere solo, come nella sceneggiata napoletana, issa, isso oppure ‘o malamente.
La nostra mente reagisce solo per breve tempo, quindi, alla azione urticante che noi chiamiamo “pensiero”.
Era, questa, una bella idea del fondatore del pragmatismo americano, Charles S. Peirce.
Quindi: le azioni simboliche generano la loro influenza quando mettono insieme azioni materiali e operazioni nel mondo simbolico.
Il tutto crea segnali potenti, efficaci sul comportamento, anche politico, che si manifestano subito e intuitivamente nell’uditorio.
Le narrazioni della disinformazione si basano, soprattutto, sulle azioni simboliche, le azioni simboliche penetrano poi, sempre profondamente, nel pubblico-obiettivo che è stato selezionato per l’operazione.
La disinformazione, quindi, appare sempre in queste forme: a)la costruzione dal nulla di una notizia e/o di una narrativa, b) la manipolazione, ovvero la costruzione di un “ambiente” adatto per la notizia utile per la disinformazione, vera o falsa che sia, c) l’appropriazione indebita, ovvero l’utilizzazione di dati di altri per costruire una notizia manipolata, ma che appare provenire dalla fonte della notizia originale, poi anche la vecchia d) propaganda, che si utilizza per favorire un partito, un leader, una “causa”, e) la satira, che noi italiani sappiamo bene quanto influenzi il discorso politico, dal Craxi vestito da duce di Forattini alla destrutturazione comica di Silvio Berlusconi, poi c’è la f) parodia, che lega una narrazione a un fatto emotivo e divertente che poco c’entra con la narrativa stessa.
Il divertimento, il mito della nostra società, è un importantissimo asse di disinformazione.
Per capire meglio la manipolazione sui fatti, è anche bene ricordare il woozle effect, ovvero l’evidenza fornita dalla citazione autorevole, vera o falsa che sia.
Poi ci sono anche i nuovi “villaggi Potiemkin”, ovvero le reti istituzionali della dezinformatsjia, condotte però da operatori informatici dell’influenza strategica.
I villaggi Potiemkin veri e propri erano, durante gli anni ’30, dei finti villaggi costruiti ex novo dalla polizia segreta sovietica, in cui venivano dirottati i visitatori importanti, spesso filosovietici, in cui tutto andava, in effetti, benissimo. Oggi si fanno on line.
Finita la visita, nei vecchi villaggi sovietici, tutto ritornava alla consueta tragedia quotidiana.
Poi, per tutte queste categorie, ci sono in Rete i Bot. Ovvero, i “ro”-bot.
E’ da ricordare, qui, che nel 2017 i bot generavano da solo oltre la metà del totale globale del traffico di internet.
E’ un software automatizzato, il Bot, che opera sulla base di alcuni algoritmi.
Il 23% del traffico di internet è oggi attribuibile a bot “buoni”, mentre il 29% è prodotto da fonti grigie o nere.
Una tecnica tipica dei bot e dei troll, che è un soggetto internet che opera tramite messaggi provocatori, irritanti o fuori tema e privi di senso, è quella del rinforzo della polarizzazione indotta da altri media, sia su internet che nei vettori classici.
Abbiamo visto, infatti, che gran parte della propaganda sulla Rete tende a isolare e polarizzare, lo ripetiamo, i contenuti e gli uditori.
Viene qui in mente quella prassi che, in psicologia, si chiama la Finestra di Overton.
Per l’omonimo psico-sociologo americano, gli atteggiamenti del pubblico, in ogni caso, e per una qualsiasi idea o proposta politica, sono catalogabili in questo modo: 1) impensabile, 2) radicale, 3) accettabile, 4) razionale, 5) popolare, 6) legalizzata.
Sempre secondo Overton, ogni idea, anche la più impensabile, ha una sua specifica finestra di opportunità.
Tanto più la si discute, tanto più appare ragionevole, e Overton prevede che tutte le idee, anche le più folli, possano passare dallo stadio di unthinkable a quello del pubblico dibattito democratico. E della loro successiva accettazione.
Fare in modo, quindi, ecco la Finestra di Overton, che il semplice cittadino si appropri dell’idea folle e la faccia sua, magari con il presupposto che anche i cani e i gatti, come abbiamo letto recentemente in un importante quotidiano italiano, possano e quindi magari debbano votare alle elezioni politiche.
Il processo è all’origine di gran parte della psicopolitica contemporanea: all’inizio il problema, il voto per i cani e i gatti, per esempio, è inaccettabile o ridicolo.
Poi, in una fase successiva, la questione, ripetuta in tutte le salse, diventa “inaccettabile ma con riserve”.
Non bisogna mai avere tabù, residui “medievali”, pregiudizi. Ecco la giustificazione standard.
Intellettuali, o quello che essi credono di essere, propugnano in questa fase il voto ai cani e ai gatti.
Qui inizia tutta la sequela delle tecniche psicopolitiche che prima abbiamo analizzato.
E ancora si passa, impercettibilmente, dallo stadio di “proibito, ma con delle riserve” a quello di “accettabile”.
Qui operano ancora le tecniche di condizionamento e influenza che abbiamo visto, e soprattutto il passaggio improprio dal caso particolare alla categorizzazione generale.
Ogni manipolazione informativa si basa, anche oggi, sui sillogismi irregolari classificati da Aristotele.
Ti ricordi di Fido o del Gatto Mammone? Erano tanto intelligenti, avrebbero votato certamente con cognizione di causa.
Poi, la finestra di Overton si sposta dal “possibile” al “ragionevole”, e qui operano di solito due grandi categorie: la necessità economica del gruppo minoritario, in molti casi, oppure la selezione naturale pseudo-darwiniana.
Poi, arriva la fase del testimonial, come in pubblicità, e nella pubblicità dei beni di largo consumo: non ti ricordi di Rin Tin Tin? E del “commissario” Rex?
Come ti permetti allora di escludere i cani dal voto? Non sei “progressista”, up to date, alla moda.
Si rischia quello che abbiamo già visto, l’esclusione dal gruppo.
Tutti, allora, fase ulteriore, ne parlano, e la questione viene qui amplificata dallo show business e dai media di massa.
Infine, si arriva, stadio finale, alla legalizzazione. Potrai finalmente portare Fido nella cabina elettorale.
Si noti bene, poi, che questi riflessi condizionati artificiali sono pensati, anche, per dimenticare temporaneamente la situazione reale delle persone e del Paese.
Con 1,8 milioni di famiglie povere, in Italia, ovvero ben 5 milioni di individui, la gente si occupa e si distrae con il voto ai cani e ai gatti, o per mezzo di altre sciocchezze del genere, a cui riesce a credere grazie, lo abbiamo visto sopra, alla “finestra di Overton”.
Non abbiamo dubbi che, in breve tempo, aumenteranno le tecnologie disponibili per la manipolazione psicopolitica di massa.

Giancarlo Elia Valori