La comunicazione online tra politica e disinformazione
- Massimo Zanolla
- 19 apr 2024
- Tempo di lettura: 8 min
Aggiornamento: 24 apr 2024
La possibilità di creare e diffondere contenuti online ha cambiato radicalmente i paradigmi e le modalità di creazione, fruizione e distribuzione dell’informazione, rompendo i classici schemi che associavano la notizia all’attività professionale delle testate giornalistiche. La perdita del ruolo esclusivo dei media tradizionali, un tempo principali garanti della veridicità e dell’autorevolezza delle notizie, lascia infatti spazio all’iniziativa individuale e privata, con la promessa di maggiore coinvolgimento e partecipazione all’interno del dibattito pubblico.
Principali protagonisti di questa rivoluzione sono gli influencer dei social media, «opinion leader digitali» che «hanno costruito una rete consistente di persone che li seguono» (M. De Veirman et al., 2017). Sono popolari grazie alla loro autorappresentazione di successo sui social media, a differenza delle celebrità tradizionali che sono famose grazie a una certa professione e il cui successo è conferito principalmente dai media tradizionali. Tali caratteri di libertà e autonomia comportano anche la possibilità di un utilizzo strumentalizzante e opaco dell’informazione. La mancanza di un filtro giornalistico e di un controllo a monte sulle informazioni trasmesse può portare alla rapidissima diffusione di informazioni false o non esatte. Infatti, la verifica delle informazioni è efficace soltanto se effettuata tempestivamente nelle prime fasi dalla pubblicazione, prima che essa si diffonda come un virus e diventi impossibile da arginare nel medio-lungo termine.
Per meglio comprendere il fenomeno della disinformazione, possiamo distinguere varie tipologie di distorsione dell’informazione. La misinformazione è definita come una «affermazione che contraddice o distorce la comprensione comune di fatti verificabili» (A. Guess – B. Lyons, 2020). Si parla invece di disinformazione quando si condividono consapevolmente informazioni false per causare danni. Fra queste vi sono le fake news: «articoli deliberatamente fuorvianti progettati per imitare l'aspetto di articoli di notizie reali» (C. Wardle – H. Derakhshan, 2017).
Secondo il Report presentato dal Gruppo di esperti di alto livello sulle fake news e la disinformazione online, istituito dalla Commissione Europea, il termine fake news sarebbe inadeguato a descrivere la complessità del fenomeno e risulterebbe invece più appropriato il termine disinformazione, di cui viene data la seguente definizione: «informazione falsa, imprecisa o concepita in modo fuorviante, presentata e diffusa a scopo di lucro o con l'intenzione di creare un pregiudizio pubblico». Il gruppo sottolinea l’importanza di un’alfabetizzazione mediatica e di una trasparenza da parte delle grandi piattaforme nella descrizione dei meccanismi utilizzati dagli algoritmi, nonché accortezze tecnico-operative per colmare l’asimmetria informativa degli utenti.
Secondo il Reuters Institute Digital News Report 2018, le persone si preoccupano dell'esistenza di notizie inventate o fabbricate (58% del campione considerato), ma faticano a trovare esempi di casi in cui hanno effettivamente assistito a questo fenomeno (26%). Ciò suggerisce che gli utenti sono preoccupati per un fenomeno diffuso che non riescono a descrivere o definire chiaramente.
Gli stessi aspetti negativi e positivi dell’informazione online appena osservati hanno permeato anche il territorio della comunicazione politica. Negli Stati Uniti, Internet ha avuto un ruolo senza precedenti nelle elezioni del 2008, quando Barack Obama lo sfruttò per finanziare la sua campagna politica. In Italia invece, la politica ha iniziato a servirsi del web già nel 2005. All'epoca Beppe Grillo, leader del Movimento Cinque Stelle, utilizzò il suo sito per avvicinare i cittadini al dibattito politico, rendendolo così uno dei blog online più influenti del 2005. Ma anche in ambito politico la disinformazione può portare a conseguenze potenzialmente drammatiche. È quello che è accaduto con l’assalto a Capitol Hill nel gennaio 2021, dopo il tweet dell’ex presidente degli Stati Uniti Donald Trump, in cui accusava il rivale Joe Biden di aver commesso irregolarità nelle elezioni che avevano visto quest’ultimo vincitore, ed il suo successivo discorso pubblico, in cui invitava alla marcia verso il Campidoglio. Durante il primo anno della guerra della Russia in Ucraina, le società di social media hanno permesso al Cremlino di condurre una campagna di disinformazione su larga scala rivolta all'Unione europea e ai suoi alleati, raggiungendo almeno 165 milioni di persone e 16 miliardi di visualizzazioni. Di notevole portata è anche la campagna di disinformazione sul conflitto tra Israele e Hamas.
La risposta più significativa del legislatore europeo è stato il Regolamento (UE) 2022/2065 relativo a un mercato unico dei servizi digitali (Digital Services Act – DSA), pubblicato in Gazzetta Ufficiale il 19 ottobre 2022. Esso, nonostante non contenga una definizione legale di disinformazione, ne ammette implicitamente il potenziale contrasto in due casi: come contenuto illegale o come contenuto dannoso (in quest’ultimo caso i provvedimenti specifici si applicano solo a determinate categorie di intermediari online).
L’articolo 3 del DSA definisce come contenuto illegale «qualsiasi informazione che, di per sé o in relazione a un'attività, tra cui la vendita di prodotti o la prestazione di servizi, non è conforme al diritto dell'Unione o di qualunque Stato membro conforme con il diritto dell'Unione, indipendentemente dalla natura o dall'oggetto specifico di tale diritto». Questo implica che, nel caso in cui una forma di disinformazione sia illegale in uno stato membro, le piattaforme sarebbero chiamate ad intervenire prontamente in tale stato. In Particolare,
L’articolo 9(1) impone obbligo di intervenire contro i contenuti illegali sulla base di un ordine emesso dalle autorità giudiziarie o amministrative competenti
L’articolo 16 sancisce l'obbligo per gli intermediari online di organizzare meccanismi che consentano a qualsiasi persona o entità di segnalare determinate informazioni che la persona o l'entità considera contenuti illegali
Vi è, secondo l’articolo 22, l'obbligo di garantire la gestione prioritaria degli avvisi presentati da soggetti definiti «segnalatori attendibili», che operano in aree designate in cui hanno competenze specifiche
Alcune piattaforme hanno l’obbligo, come si è detto, di prevenire la diffusione di notizie dannose. È il caso delle piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi (in inglese rispettivamente VLOP e VLOSE), che hanno cioè un numero medio di utenti attivi mensili nell'Unione di almeno 45 milioni di persone. Queste sono sottoposte ad obblighi aggiuntivi: hanno l’obbligo, secondo l’articolo 34, di valutare i rischi sistemici derivanti dalla progettazione, dal funzionamento e dall'utilizzo dei propri servizi, nonché dal potenziale abuso dei servizi da parte dei destinatari degli stessi. Devono inoltre adottare misure per affrontare i rischi sistemici individuati (ex art. 35).
I riferimenti alla disinformazione diventano più espliciti se si considerano due dei tipi di rischio sistemico previsti dal regolamento.
Gli effetti negativi reali o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica (considerando 82).
I rischi derivanti da «preoccupazioni analoghe relative alla progettazione, al funzionamento o all'uso, anche mediante manipolazione, di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, con ripercussioni negative, effettive o prevedibili, sulla tutela della salute pubblica e dei minori e gravi conseguenze negative per il benessere fisico e mentale della persona o per la violenza di genere. Tali rischi possono derivare anche da campagne di disinformazione coordinate relative alla salute pubblica o dalla progettazione di interfacce online che possono stimolare le dipendenze comportamentali dei destinatari del servizio».
Sebbene non sia intento del presente articolo approfondire il tema dell’Intelligenza artificiale (IA), vengono proposti alcuni accenni, per meglio approfondire il contesto attuale. I sistemi di IA generativa, quali ad esempio i generatori di testo, immagini e video possono rappresentare un notevole ostacolo al processo democratico.
Considerando che, secondo alcune stime, entro il 2026 il 90% dei contenuti potrebbe essere "sintetico", cioè frutto di IA generativa, è più che mai cruciale individuarne gli elementi che più necessitano di un intervento normativo. Dal video, generato dall’intelligenza artificiale, di Trump che abbraccia Anthony Fauci alla Premier Giorgia Meloni in un deepfake pornografico, la politica non è stata risparmiata nemmeno da questo fenomeno. E, sebbene l’immagine di Papa Francesco con indosso un piumone all’ultima moda possa strappare un sorriso, le possibili implicazioni su larga scala appaiono tutt’altro che serene.
Possiamo osservare alcune delle principali misure adottate dalle piattaforme nel tentativo di limitare il rischio. TikTok ha introdotto una politica che impone l’indicazione di contenuti prodotto di creazione o modifica da parte di sistemi di IA. Sono inoltre state vietate le informazioni fuorvianti sui processi elettorali. YouTube vieta i contenuti che sono stati manipolati o ritoccati in modo tale da ingannare gli utenti, e anche quelli che interferiscano col processo democratico. Ma nonostante questi primi tentativi di regolare la materia, appare ancora difficile trovare una soluzione veramente efficace al problema.
Yvette Clarke, democratica di New York, ha presentato una legge per segnalare i contenuti generati dall’IA nella comunicazione politica. Ciò non desta stupore dal momento che il software di OpenAI viene già utilizzato all’interno delle mura di Capitol Hill. L’azienda ha pubblicato linee guida che vietano l'uso di ChatGPT per campagne politiche o di lobbying, compresa la generazione di materiali per campagne mirate a particolari gruppi demografici o la produzione di alti volumi di materiali.
Ci si potrebbe domandare, a questo punto, se esistano nel nostro ordinamento fattispecie di natura penale a tutela degli interessi in gioco. Premettendo che l’art. 21 della Costituzione non sembra tutelare anche la comunicazione e la diffusione di falsità, appare pertinente indicare le fattispecie all’art. 656 c.p. che puniscono la diffusione di notizie false esagerate e tendenziose, purché atte a turbare l’ordine pubblico, e la diffusione di notizie che procurino allarme presso la pubblica autorità (art. 658 c.p.) così ponendo in pericolo il corretto uso della forza pubblica. Vi è poi, estraneo all'ambito penale, Il disegno di legge Zanda-Filippin che prevede sanzioni amministrative pecuniarie per i social network elettronici che abbiano più di un milione di utenti registrati nel territorio nazionale i quali non abbiano una procedura efficace e trasparente di gestione dei reclami.
Bibliografia
De Veirman M. et al., Marketing through Instagram influencers: the impact of number of followers and product divergence on brand attitude, in International Journal of Advertising, 2017, p. 801.
Khamis S. et al., Self-branding, ‘micro-celebrity’ and the rise of Social Media Influencers, in Celebrity Studies, vol. 8(2), 2017, pp. 191–208.
Kauk J. et al., Understanding and countering the spread of conspiracy theories in social networks: Evidence from epidemiological models of Twitter data, in PLoS One, vol. 16(8), 2021, p. 16.
Guess A. – Lyons B., Misinformation, Disinformation, and Online Propaganda, in Persily N. – Tucker J. (a cura di), Social Media and Democracy, Cambridge University Press, Cambridge, 2020, p.10.
Wardle C. – Derakhshan H., One year on, we’re still not recognizing the complexity of information disorder online, in First Draft News, 2017, https://archive.ph/0suBI.
European Commission, Final report of the High Level Expert Group on Fake News and Online Disinformation, 2018, https://archive.is/kUIb1.
De Rosa R., The five stars movement in the Italian political scenario. A case for cybercratic centralism?, in JeDEM – eJournal of eDemocracy and Open Government, vol. 5(2), 2013, pp. 128-140.
Directorate-General for Communications Networks (European Commission), Application of the risk management framework to Russian disinformation campaigns, Publications Office of the European Union, 2023.
S.n., Capitol riots timeline: What happened on 6 January 2021?, BBC, 2023, https://archive.ph/0LEro.
Adam M. – Hocquard C., Artificial intelligence, democracy and elections, European Parliamentary Research Service, 2023, p. 1.
Contorno S. – O'Sullivan D., DeSantis campaign posts fake images of Trump hugging Fauci in social media video, CNN, 2023, https://archive.is/mjBtr.
Nadeau B.L., Italian Prime Minister Giorgia Meloni seeking damages of $108,200 in deepfake porn trial, CNN, 2024, https://archive.ph/u1Oyw.
Pullella P., Pope Francis, victim of AI, warns against its 'perverse' dangers, Reuters, 2024, https://archive.ph/2nn6R.
Duffy C., With the rise of AI, social media platforms could face perfect storm of misinformation in 2024, CNN, 2023, https://archive.is/qufwd.
Birnbaum E. – Davison L., AI Is Making Politics Easier, Cheaper and More Dangerous, Bloomberg, 2023, https://archive.is/udk89.
Lamanuzzi M., La disinformazione ai tempi dei social media: una nuova sfida per il diritto penale?, in Archivio penale, 1/2020, pp. 1-36.
Kommentare