La democrazia è il governo del popolo, ma se le opinioni sono manipolabili resta solo una parola vuota.
Adesso è scientificamente dimostrato che le opinioni sono manipolabili.
Per una curiosa convergenza
temporale negli ultimi mesi si sono succeduti due studi sulla
possibilità di manipolare l’opinione pubblica mediante un’azione sui
social network, ma in realtà si tratta di meccanismi validi anche al di
là dell’ambito social. Il caso più noto riguarda lo studio condotto da Facebook
su un campione di 155.000 utenti ignari di essere sottoposti ad un test
per il quale è stato ritenuto sufficiente solo il generico consenso
espresso da tutti gli utenti all’atto dell’apertura dell’account. Nulla
sarebbe trapelato se lo studio non fosse stato pubblicato il 17 Giugno
scorso su PNAS (Proceedings of the National Academy of Sciences) con il titolo “Experimental evidence of massive-scale emotional contagion through social networks“, dove un grafico mostra l’effetto sugli utenti della manipolazione dei feedback positivi/negativi:
Subito però si è passati dall’interesse
alle proteste per la violazione dei diritti degli utenti del social, a
fine Giugno la notizia varcava l’ambito accademico per approdare sulla
stampa (vedi agenzia ANSA) e il 2 Luglio arrivavano delle poco convinte scuse, come documenta il Corriere della Sera, molto più critica verso l’atteggiamento della dirigenza di Facebook appare invece la CNN.
L’esperimento era in
particolare teso a verificare la possibilità di condizionare gli utenti
mediante l’esposizione a notizie filtrate, come riportato su Le Scienze:
Sui social network le emozioni, sia positive sia negative, passano efficacemente da un utente all’altro attraverso la semplice visualizzazione dei messaggi, influendo sul tono degli interventi successivi. E’ la prima volta che si riesce a dimostrare sperimentalmente che il fenomeno del contagio emotivo avviene anche attraverso il puro linguaggio scritto, privato delle sue componenti non verbali…Per dare valenza sperimentale al loro studio, i ricercatori hanno agito sui filtri del News Feed di Facebook, ossia dell’algoritmo che seleziona i messaggi scritti dagli amici in base all’interesse individuale per certi contenuti, in modo che arrivino solo quelli presumibilmente più significativi. (Senza questi filtri un utente medio di Facebook sarebbe potenzialmente esposto a circa 1500 contenuti al giorno, mentre grazie a essi solo il 20 per cento circa dei messaggi finisce nella sua bacheca.) In questo modo Kramer e colleghi hanno potuto aumentare o diminuire il numero di messaggi positivi/negativi/neutri visualizzati da ciascun utente.
Che lo studio sia di interesse in campo politico e persino militare è ricavabile da una delle firme, Jeffrey T. Hancock della Cornell University già collaboratore della Minerva Initiative del Dipartimento della Difesa degli USA per il quale ha realizzato lo studio “Modeling Discourse and Social Dynamics in Authoritarian Regimes”
(Modelli di discorsi e dinamiche sociali nei regimi autoritari). Dallo
studio delle dinamiche sociali nei regimi autoritari alla verifica
della possibilità di influenzare le dinamiche sociali in una direzione
ritenuta desiderabile la distanza non è molta.
Inosservato era passato
solo pochi mesi prima uno studio condotto sulle dinamiche di un altro
importante social, in febbraio era stato infatti pubblicato sulla
rivista Chaos e ripreso da Le Scienze uno studio condotto su Twitter:
Non solo l’opinione della maggioranza tende a convogliare ulteriori consensi, ma il dato più interessante è che basta un esiguo margine iniziale a favore per determinare grandi spostamenti di consensi, come riportato sempre su Le Scienze:L’opinione predominante, condivisa dalla maggioranza delle persone, emerge rapidamente su Twitter, qualunque sia l’argomento, e una volta stabilizzata difficilmente può cambiare. Lo ha scoperto una nuova analisi automatizzata, che potrebbe essere utilizzata per prevedere – ma forse anche per influenzare – come si orienterà l’opinione pubblica
Graficamente la situazione è così riassunta:…sul lungo periodo, l’opinione che prevale è quella che all’inizio aveva un modesto vantaggio sulle altre. Questo fenomeno, tipico dei sistemi caotici, è denominato dipendenza sensibile dai dati iniziali o più volgarmente “effetto farfalla”, perché fu esemplificato da Edward Lorenz, pioniere della teoria del caos, in una celebre conferenza dal titolo “Il battito delle ali di una farfalla in Brasile può scatenare un tornado in Texas?”.
Le dinamiche di maggioranza
prevedono inoltre l’esistenza di uno “zoccolo duro” che non si
uniformerà comunque all’opinione della maggioranza e che può essere
accettato come un dato fisiologico che con la sua presenza ai livelli
attesi potrebbe addirittura confermare il raggiungimento di una
situazione di stabilità.
Le parole conclusive
degli autori dell’esperimento, riferite alla fine dell’articolo su Le
Scienze, non lasciano dubbi sul potenziale del meccanismo accertato:
Secondo i due ricercatori, il loro metodo di analisi potrebbe essere estremamente utile a politici e grandi società per analizzare le caratteristiche e gli schemi di evoluzione delle diverse opinioni, e quindi studiare come influenzare l’opinione pubblica a proprio favore.
Dopo i risultati degli esperimenti condotti su Facebook e Twitter, appare evidente il potenziale di controllo sociale esercitabile tramite semplici interventi effettuabili sui social network.
Ma le dinamiche emerse confermano anche un meccanismo più generale
secondo il quale l’opinione pubblica tende ad orientarsi nella direzione
che ritiene essere quella della maggioranza, basta anche un margine
iniziale minimo, e questo potrebbe valere anche nel caso dei sondaggi
d’opinione o di una serie di articoli giornalistici che potrebbero
generare l’opinione pubblica anziché misurarla o documentarla.
Si tratta quindi di un
meccanismo di facile impiego e realizzazione, uno strumento che fornendo
l’immagine desiderata degli orientamenti della maggioranza, potrebbe
essere impiegato per creare quella stessa maggioranza che si vuole
indicare come già esistente.
Nessun commento:
Posta un commento
I commenti spam, offensivi, non pertinenti e quelli riportanti indirizzi mail o link sospetti saranno cancellati.