Che relazioni ci sono tra social, elezioni e fake news?

È tempo di campagna elettorale e tornano i comizi in piazza, i politici sgomitano per ritagliarsi uno spazio nei talk show televisivi, ma da circa un decennio a questa parte la propaganda politica ha trovato terreno fertile in una nuova immensa arena: i social network. Sempre più persone nel mondo, soprattutto le nuove generazioni, infatti, li stanno scegliendo come fonte primaria di informazione1.
Abbiamo già parlato, in articoli precedenti, di come le piattaforme social più popolari raccolgano dati, tracciando la nostra navigazione sulle stesse. La somma dei dati e metadati ottenuti in questo modo, permette di profilare l’utente e di ricavare informazioni, tra le altre cose, riguardo alle sue abitudini, ai suoi interessi e alle sue inclinazioni politiche. Da ciò si può comprendere perché le forze politiche si stiano affidando sempre di più a questi strumenti e alle loro enormi potenzialità.
Per fare questo si affidano spesso ad aziende specializzate in analisi di dati, capaci di individuare i profili più sensibili a un particolare tipo di annuncio mirato2, attraverso modelli predittivi come quello elaborato da Michal Kosinski, ricercatore e psicologo, descritto nello studio “Private traits and attributes are predictable from digital records of human behavior”3, pubblicato su Pnas nel 2013.
La particolarità di questi metodi – e la loro efficacia – nasce dalla necessità di categorizzare la personalità dell’utente non solo attraverso le informazioni che l’utente sceglie di condividere, ma attraverso i metadati, cioè il modo in cui l’utente interagisce con la piattaforma e sceglie di esprimersi. Come scrive Shoshana Zuboff, professoressa americana e business analyst di Harvard, ne Il capitalismo della sorveglianza “Non conta che cosa c’è nelle nostre frasi, ma la loro lunghezza e complessità; non che cosa elenchiamo, ma il fatto che facciamo un elenco; non la foto che postiamo, ma il filtro o la saturazione che abbiamo scelto; non cosa riveliamo, ma il modo in cui lo condividiamo o meno; non dove abbiamo deciso di incontrarci con gli amici, ma come lo faremo….”4

I CASI CELEBRI

Questa metodologia è stata al centro di un noto scandalo: quello di Cambridge Analytica. Si è trattato di una società di analisi dati, specializzata in metodologie per effettuare del micro-targeting aggressivo di natura politica. E’ stata accusata di aver utilizzato illecitamente dati raccolti attraverso Facebook, in seguito al “pentimento” di Chris Wylie 5. Sempre Zuboff scrive che l’obiettivo era “la micro targettizazione comportamentale. […] Influenzare gli elettori basandosi non sui loro dati demografici, ma sulle loro personalità“6.

Negli ultimi anni sono molti i casi che sono stati documentati e studiati che hanno utilizzato questo approccio per cercare di influenzare le elezioni politiche. Il caso più eclatante è probabilmente quello che ha permesso a Donald Trump di avere la strada spianata per la corsa alla presidenza degli Stati Uniti nel 2016, rivolgendosi a Cambridge Analytica. In questa occasione, le istanze del suprematismo bianco sono state spinte anche tramite l’uso di bot e account falsi, molto spesso accompagnate da una buona dose di fake news7. Si sospetta anche l’interferenza della Russian Internet Research, un gruppo di hacker russi vicini al cremlino, specializzati nell’utilizzo di account “troll”, con l’intento di creare divisione all’interno della nazione americana 8 9. Questo ha obbligato le piattaforme a prendere provvedimenti10, che non hanno però impedito il ripresentarsi di scenari simili nelle elezioni del 202011, culminati con l’assalto di Capitol Hill, organizzato sempre attraverso i social12.
Anche in occasione del voto sulla Brexit è stato fatto largo uso della profilazione degli utenti e molte persone sono entrate in contatto con vere e proprie “bufale” e disinformazione sui social prima di prendere una decisione13 14.
Non serve però andare troppo lontano, anche in Italia abbiamo avuto esempi di come si siano sfruttati i meccanismi dei social per agevolare la diffusione di contenuti che spesso mirano alla pancia delle persone e ottenere consenso. Si pensi alla famigerata “Bestia”, la macchina da propaganda adottata dalla Lega di Salvini. Essa ha puntato sia sulla profilazione15 , sia su un team di professionisti continuamente dedicato ad intercettare il sentimento degli elettori, cogliendo le opportunità per fornire agli utenti, soprattutto quelli che si mostravano indecisi, contenuti basati sulle loro probabili richieste. Per rendere più polarizzata l’interazione, non sono mancati post denigratori nei confronti degli avversari, così come il filtraggio dei commenti, non permettendo l’uso di parole chiave che potessero essere utilizzate dagli oppositori. Si è sfruttata anche la mobilitazione dei follower più fedeli, spinti ad azioni per rendere virali i post16. Va detto che pratiche simili, in tutto o in parte, sono state adottate anche da altri partiti, di diversi schieramenti politici17.
Si potrebbero citare molti altri esempi di come possano essere sfruttati i social per fini propagandistici, non solo per vincere le elezioni, ma, in certi casi, anche per supportare comportamenti discriminatori verso una particolare categoria di persone. È il caso, ad esempio, del popolo Rohingya, le cui feroci persecuzioni sono, come dichiarato dall’ONU, assimilabili a una vera e propria pulizia etnica e la stessa ONU ha accusato Facebook di avere avuto un ruolo determinante nel veicolare contenuti d’odio contro questa minoranza18

NEGAZIONISIMO E DISINFORMAZIONE

Veniamo al punto che interessa particolarmente a chi vuole comunicare la crisi climatica sui social. Uno dei passi importanti per arrivare a una vera transizione ecologica è creare consapevolezza e consenso tra i cittadini sul fatto che far fronte alla crisi climatica sia una priorità e si vorrebbe quindi comunicare tale urgenza attraverso fatti ed evidenze scientifiche. Il problema nasce già nel momento in cui un post pubblicato sui social non ha necessariamente lo stesso peso rispetto ad un altro19 20. Questo perché gli algoritmi delle piattaforme mettono in evidenza i contenuti che rispettano certe caratteristiche, tra le quali, la fondatezza di quanto affermato non è rilevante.

Lo scopo dell’algoritmo, infatti, è quello di permettere ai proprietari della piattaforma di raggiungere la massima monetizzazione possibile, quindi vengono favoriti quei contenuti che generano maggior numero di interazioni e che tengano l’utente incollato allo schermo. Tra questi contenuti, vengono premiati quelli che colpiscono l’emotività dell’utente, spesso però questi sono divisivi e polarizzanti, sfociano nell’hate speech e non aiutano a costruire un dibattito sano e costruttivo su temi complessi. Se poi ciò che viene condiviso è una fake news, presentata in modo da colpire la pancia di una determinata categoria di persone, questa potrebbe anche essere più pervasiva di un contenuto aderente alla realtà o persino di un’evidenza scientifica21. Un post che nega il cambiamento climatico, in questo contesto può avere peso equivalente o maggiore di uno che cita correttamente ciò che afferma la comunità scientifica. Inoltre, a volte, si riportano le voci di presunti esperti o si da spazio a gruppi isolati di scienziati, magari in conflitto d’interesse , che ad esempio negano l’origine antropica del cambiamento climatico, (casi simili a quelli descritti nel libro “Mercanti di dubbi” di Naomi Oreskes ed Erik Conway22). In questo modo si da’ l’impressione che ci sia un effettivo dibattito tra chi studia certi fenomeni, anche laddove la comunità scientifica è praticamente concorde, dimenticando che il vero dibattito scientifico si fa rispondendo a studi con altri studi e non con dichiarazioni sui mass media. Affinchè i politici prendano misure sulla crisi climatica è necessario che la gente sia informata e richieda dei programmi seri con l’obiettivo di azioni al riguardo. Cosa che può in certi casi diventare difficoltosa per via delle insinuazioni negazioniste, fatte con l’uso di disinformazione e fake news e spesso pagate da società fossili23 24.

Il fatto, poi, che le piattaforme spesso cercano di mantenere l’attenzione su di esse e a creare un contesto in cui l’utente è portato a scrollare velocemente le notizie sul suo feed, non invoglia il lettore a soffermarsi per verificare e approfondire una notizia quando gli viene presentata. Inoltre è più probabile che i post più in linea con le idee dell’utente vengano mostrati in cima al feed dell’utente, creando le cosiddette echo chambers 25. I contenuti informativi e divulgativi, quindi, rimangono in prevalenza confinati a chi è già predisposto a riceverli, scoraggiando l’utente a seguire una pluralità di voci.
A tutto ciò si aggiunge il fatto che, come detto all’inizio dell’articolo, partiti politici o grandi compagnie possono pagare società di analisi per far arrivare contenuti mirati a un determinato gruppo di utenti, moltiplicando così gli effetti finora descritti. La somma di tutto questo ci porta a dire che in alcune piattaforme la realtà può apparire distorta, come scriviamo nella pagina canali social.

COSA POSSIAMO FARE?

Alcune problematiche legate alla polarizzazione e alla disinformazione sono sempre stati presenti durante il periodo della campagna elettorale, anche se i social ne hanno amplificato il raggio d’azione e hanno fornito nuovi strumenti per una propaganda mirata più efficace. Con questo non si vuole negare le grandi potenzialità che hanno i social network in generale per collegare un grande numero di persone intorno al mondo e parlare di tematiche globali. Fridays For Future stesso deve ai social gran parte della sua forza mediatica. Il nostro intento è quello di creare consapevolezza su quali possono essere i meccanismi che operano all’interno delle piattaforme più conosciute e provare ad evidenziare problematiche e valutare accorgimenti affinché il mondo del web sia sempre di più un posto migliore. Questo andrebbe fatto anche al fine di una più efficace comunicazione della crisi climatica, oltre che per limitare le pratiche finora descritte.

In quest’ottica, un primo passo è appunto quello di conoscere come funziona il processo di comunicazione sulle piattaforme, parlarne e fare pressione affinché si prendano provvedimenti per contrastare la disinformazione e gli abusi in termini di privacy e profilazione sulle piattaforme. Ad esempio, dopo che sono emersi i tentativi di manipolare l’elettorato tramite i social, le stesse piattaforme hanno dovuto porre dei rimedi, ad esempio mettendo un’etichetta quando una notizia condivisa è una probabile fake news. Si tratta però spesso di soluzioni che tamponano il problema, senza andare alla radice e arginare veramente i meccanismi più problematici26.
Una risposta più incisiva può essere quella di ripensare i modelli con cui strutturiamo i social network, senza l’utilizzo di profilazione o di algoritmi che intervengono sull’ordine con cui riceviamo le notizie. Anche in questo caso ci sentiamo di suggerire alternative aperte e senza profilazione come le piattaforme offerte dal fediverso27 dove vi invitiamo a seguirci. Anche se alcune alternative possano apparire ancora macchinose ai più, il fatto di interessarsi e creare un dibatto su come vorremmo che siano i social del futuro, ci permette di fare passi avanti verso progetti sempre più concreti28 29.

Se volete scoprire il lavoro che abbiamo fatto in campo digitale visitate questa pagina, in cui troverete altri articoli in merito alla sostenibilità digitale e in cui spieghiamo anche le scelte fatte per rendere sostenibile il nostro sito. Un esempio è l’implementazione degli eventi attraverso Mobilizon, come alternativa agli eventi Facebook, per registrare gli scioperi di Fridays For Future Italia.

Fonti / Note

Fonti / Note
1 https://go.mgpf.it/3QWBKwQ
2 https://www.agendadigitale.eu/sicurezza/privacy/la-profilazione-social-influenza-le-scelte-elettorali-come-funziona-e-quali-difese/
3 https://www.pnas.org/doi/10.1073/pnas.1218772110
4 da Zuboff Shoshana, Il Capitalismo della Sorveglianza Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, pag.251
5 https://www.dirittoconsenso.it/2021/12/21/il-caso-cambridge-analytica/
6 da Zuboff Shoshana, Il Capitalismo della Sorveglianza Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, pag. 255
7 https://www.valigiablu.it/trump-russia-social-network/
8 https://www.bbc.com/news/technology-43093390
9 https://www.ucf.edu/news/how-fake-news-affects-u-s-elections/
10 https://www.agendadigitale.eu/cultura-digitale/usa-2020-le-nuove-tecniche-per-manipolare-il-voto-e-le-contromisure-dei-social/
11 https://research.umd.edu/articles/social-medias-impact-2020-presidential-election-good-bad-and-ugly
12 https://www.agendadigitale.eu/cultura-digitale/assalto-a-capitol-hill-cosi-la-trappola-social-ha-incastrato-i-promotori-della-rivolta/
13 https://www.theguardian.com/technology/2017/may/07/the-great-british-brexit-robbery-hijacked-democracy
14 https://www.ted.com/talks/carole_cadwalladr_facebook_s_role_in_brexit_and_the_threat_to_democracy
15 https://www.key4biz.it/salvini-come-funziona-la-bestia-con-35-esperti-24-ore-al-giorno-e-il-tool-per-ascoltare-il-sentiment-della-rete/275822/
16 https://www.open.online/2021/09/28/caso-morisi-la-bestia-come-funziona/
17 https://www.orizzontipolitici.it/i-social-media-nella-comunicazione-politica-italiana/
18 https://www.cbsnews.com/news/rohingya-refugee-crisis-myanmar-weaponizing-social-media-main/
19 https://www.wired.it/internet/web/2018/11/01/algoritmi-scelta-social-network-web/
20 video “Le decisioni degli algoritmi non sono neutrali” di Gaia Contu
21 https://ilbolive.unipd.it/it/news/disinformazione-fake-news-hate-speech-punto-azioni
22 https://oggiscienza.it/2020/03/07/mercanti-di-dubbi-oreskes-conway/index.html
23 https://www.corriere.it/dataroom-milena-gabanelli/clima-riscaldamento-globale-chi-finanzia-fake-news-ambiente-c02-social-inquinamento-salvare-pianeta-pericolo-emissioni-disinformazione/0c83cd40-a769-11eb-b37e-07dee681b819-va.shtml
24 https://altreconomia.it/i-negazionisti-della-crisi-climatica-e-le-inserzioni-milionarie-su-facebook/
25 https://ilbolive.unipd.it/it/news/echo-chambers-algoritmi-social-influenzano-nostra
26 https://www.ansa.it/sito/notizie/tecnologia/internet_social/2021/02/05/su-fb-e-twitter-boom-disinformazione-nonostante-contromisure_823a17b6-50cb-4594-8682-a10e078452aa.html
27 https://fediverso.info/#piattaforme
28 https://www.corriere.it/esteri/18_marzo_13/onu-contro-facebook-f59a77d8-2696-11e8-a3a0-e47b0114fbef.shtml
29 Alcuni delle tematiche di questo articolo sono trattate nel libro “Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente”, edito da Altreconomia”
Ti è piaciuto questo articolo? Condividilo!