In che modo le tecnologie digitali stanno cambiando il modo in cui le persone interagiscono con le informazioni? Quali tecnologie sono in grado di fabbricare e rilevare la disinformazione? E quale ruolo deve svolgere la tecnologia nella creazione di un ambiente informativo migliore? Sono queste le domande – sempre più importanti – alle quali ha cercato di rispondere il rapporto “The online information environment – Understanding how the internet shapes people’s engagement with scientific information” pubblicato oggi dalla Royal Society (una delle più antiche istituzioni scientifiche del mondo) e che fornisce una panoramica di come Internet è cambiato e continua a cambiare, il modo in cui la società utilizza l’informazione scientifica e come può influenzare il comportamento decisionale delle persone: dai vaccini ai cambiamenti climatici.
Il rapporto evidenzia le principali sfide per la creazione di un ambiente informativo online davvero sano e formula una serie di raccomandazioni per i responsabili politici, gli accademici e le piattaforme online.
In che modo le tecnologie digitali stanno plasmando le informazioni che le persone incontrano? Secondo la Royal Society, «I modelli di consumo delle informazioni stanno cambiando: le persone guardano sempre più all’ambiente online per le notizie e i motori di ricerca e le piattaforme dei social media svolgono un ruolo sempre più importante nel plasmare l’accesso alle informazioni e la partecipazione ai dibattiti pubblici. Le nuove tecnologie e l’utilizzo dei dati stanno plasmando questo ambiente informativo online, sia attraverso micro-targeting, filter bubbles o sofisticati testi sintetici, video e immagini. Queste tecnologie hanno un grande potenziale e sono già utilizzate in una vasta gamma di contesti, dall’intrattenimento all’istruzione. Allo stesso tempo, crescono le preoccupazioni riguardo alle nuove forme di danno online e all’erosione della fiducia che queste potrebbero consentire».
Anche se la disinformazione non è certamente un problema nuovo e l’incertezza e il dibattito fanno intrinsecamente parte della scienza: La sisinformazione sull’AIDS circola ancora oggi e la convinzione errata in un legame tra il vaccino MPR e l’autismo proveniva da un documento accademico pubblicato (e successivamente ritirato), mentre le credenze diffuse e non evidenti sul danno della fluorizzazione dell’acqua erano veicolate dai giornali da gruppi di pressione e dal passaparola.
Però, il nuovo rapporto evidenzia che «Internet ha drasticamente ingrandito la velocità e la scala con cui le informazioni di scarsa qualità possono diffondersi» e che «La disinformazione online su questioni scientifiche, come il cambiamento climatico o la sicurezza dei vaccini, può danneggiare gli individui e la società».
Ma per la Royal Society «Censurare o rimuovere contenuti imprecisi, fuorvianti e falsi, condivisi inconsapevolmente o deliberatamente, non è un proiettile d’argento e può minare il processo scientifico e la fiducia dell’opinione pubblica. Al contrario, è necessario concentrarsi sulla costruzione della resilienza contro la disinformazione dannosa tra la popolazione e sulla promozione di un ambiente informativo online “sano”».
Frank Kelly FRS, professore di matematica dei sistemi allo Statistical Laboratory dell’università di Cambridge e a capo del team che ha redatto il rapporto, ha ricordato che «La scienza è sull’orlo dell’errore e la natura dello sforzo scientifico di frontiera significa che c’è sempre incertezza. Nei primi giorni della pandemia, la scienza è stata troppo spesso dipinta come assoluta e in qualche modo come qualcosa di cui non ci si può fidare quando si corregge, ma il pungolo e la verifica della conoscenza ricevuta sono parte integrante del progresso della scienza e della società. Questo è importante da tenere a mente quando si cerca di limitare i danni d fatti dalla disinformazione scientifica alla società. Reprimere le affermazioni al di fuori del consenso maggioritario può sembrare auspicabile, ma può ostacolare il processo scientifico e costringere i contenuti genuinamente dannosi alla clandestinità».
Ma non tutti sono d’accordo con questa visione, in particolare i ricercatori esperti nel tracciare il modo in cui la disinformazione si diffonde online e come danneggia le persone.
Il Center for Countering Digital Hate (CCDH) sostiene che «Ci sono casi in cui la cosa migliore da fare è rimuovere i contenuti quando sono molto dannosi, chiaramente sbagliati e si diffondono molto ampiamente». E fa l’esempio di Plandemic, un video che è diventato virale all’inizio della pandemia, facendo affermazioni pericolose e false per spaventare le persone e allontanarle dai metodi davvero efficaci per ridurre i danni del virus, come vaccini e mascherine, e che alla fine è stato rimosso.
Le social media companies erano meglio preparate per il sequel del video, Plandemic 2, che, dopo che era stato bloccato sulle principali piattaforme, non potendo avere la stessa diffusione del primo video, è sparito presto dai social network.
L’Institute for Strategic Dialogue, un think tank che monitora l’estremismo, afferma che «La ricerca ha dimostrato che un piccolo gruppo di account che diffondono disinformazione ha un’influenza sproporzionata sul dibattito pubblico sui social media. Molti di questi account sono stati etichettati in più occasioni dai fact-checkers come condivisione di contenuti falsi o fuorvianti, ma rimangono attivi».
La Royal Society non ha indagato sulla rimozione dei resoconti di “influencer” che sono divulgatori particolarmente prolifici di disinformazione dannosa. Ma questo è visto come uno strumento importante da molti esperti di disinformazione e la ricerca sulla propaganda sui social network dello Stato Islamico/Daesh e sull’estrema destra suggerisce che può avere successo.
Quando David Icke, un prolifico divulgatore di disinformazione sul Covid e di teorie complottistiche antisemite, è stato rimosso da YouTube, la sua capacità di raggiungere le persone con la sua disinformazione altamente tossica si è notevolmente ridotta. Mentre i suoi video sono rimasti sulla piattaforma di hosting video alternativa BitChute, le loro visualizzazioni sono scese in media da 150.000 di prima del divieto di YouTube a 6.711. Su YouTube, 64 dei suoi video erano stati visti 9,6 milioni di volte.
Una ricerca dell’Università di Cardiff ha scoperto che la de-platforming di Kate Shemirani, un’ ex infermiera britannica diventata una prolifica divulgatrice di disinformazione sul Covid, ha ridotto rapidamente la sua portata della sua influenza.
Rasmus Kleis Nielsen, direttore del Reuters Institute for the Study of Journalism dell’università di Oxford, ha detto a BBC News: «E’ una questione politica. Quale equilibrio vediamo tra le libertà individuali e qualche forma di restrizione su ciò che le persone possono e non possono dire. Riconosco che, sebbene sia una parte relativamente piccola della dieta mediatica delle persone, la disinformazione scientifica può portare a danni sproporzionati. Ma, data la mancanza di fiducia nelle istituzioni, è un grande motore di disinformazione: Immagino che ci siano molti cittadini i quali vedrebbero confermati i peggiori sospetti su come funziona la società, se le istituzioni consolidate assumessero un ruolo maggiore nel limitare l’accesso delle persone alle informazioni».
Parallelamente alla pubblicazione del nuovo rapporto, la Royal Society sta pubblicando una blog series of weekly perspective pieces che forniscono prese di posizioni personali da parte di figure di spicco su aspetti specifici che riguardano questo argomento: dai potenziali approcci normativi a quel che i media stanno facendo per combattere le fake news al ruolo delle istituzioni della conoscenza.
Il rapporto risponde ad alcune delle domande più comuni:
Cos’è la disinformazione scientifica? La disinformazione scientifica è definita come un’informazione che è presentata come effettivamente vera ma contrasta direttamente o è confutata da un consenso scientifico stabilito. Questo include concetti come la “disinformazione” che si riferisce alla condivisione deliberata di contenuti disinformanti.
Perché le persone condividono la disinformazione? Gli attori coinvolti nella produzione e diffusione di contenuti di disinformazione possono essere ampiamente classificati come attori intenzionali o non intenzionali e ulteriormente differenziati in base alla motivazione. Questi attori possono esistere in tutti i settori della società e spesso includono coloro che ricoprono posizioni di potere e influenza (ad esempio leader politici, personaggi pubblici e organi di informazione).
La Royal Society identifica 4 tipi di attori della disinformazione:
Buoni Samaritani: questi utenti producono e condividono inconsapevolmente contenuti di disinformazione. La loro motivazione è aiutare gli altri condividendo informazioni utili che ritengono vere. Esempi di questo potrebbero includere la condivisione inconsapevole di un trattamento sanitario inefficace o di un programma elettorale impreciso.
Profiter: questi utenti condividono consapevolmente contenuti di disinformazione o sono ambivalenti sulla veridicità del contenuto. Il consumo dei loro contenuti produce un profitto per loro e un maggiore coinvolgimento degli altri utenti si traduce in un maggiore profitto. Gli esempi includono scrittori di organi di informazione esplicitamente falsi pagati direttamente su un account Google Ads, aziende che vendono trattamenti sanitari fraudolenti e creatori di contenuti video che traggono profitto dalle entrate pubblicitarie. Il profitto, in questo contesto, non è limitato al valore monetario e può includere altre forme di guadagno personale (es. più voti o maggiore visibilità).
Operatori coordinati per influenzare: questi utenti producono e condividono consapevolmente contenuti di disinformazione. La loro motivazione è influenzare l’opinione pubblica in un modo che andrà a beneficio dell’agenda della loro organizzazione, industria o governo. L’obiettivo è convincere i consumatori di una storia alternativa o minare la fiducia nelle istituzioni affidabili. Gli esempi includono la pubblicazione con successo di articoli di opinione politica da parte di un esperto “costruito” su testate giornalistiche online affidabili e l’utilizzo di account di social media automatizzati (bot) per promuovere il negazionismo climatico. Attenzione agli hacker: questi utenti producono e condividono consapevolmente contenuti di disinformazione. La loro motivazione è la gioia personale. A volte indicati come “trolling”, questi utenti escogitano contenuti stravaganti o divisivi e adottano misure per massimizzare l’attenzione su di loro. Gli esempi includono l’invio di messaggi ai talk show tradizionali nella speranza che leggano i loro contenuti in onda, ingannare figure di alto profilo per fare in modo che ricondividano i contenuti sui loro account sui social media e condividendo teorie del complotto con telefonate e radio ignare (note come groyping).
Che cos’è la maliformazione? I contenuti genuini e non modificati possono essere condivisi senza contesto per fornire una narrativa fuorviante. Questo è facilitato nell’ambiente dell’informazione online in quanto i contenuti possono essere diffusi tra persone senza intermediari (ad esempio testate giornalistiche, funzionari governativi). Questa è stata definita “malinformazione”. Gli esempi includono la condivisione di immagini reali e l’affermazione che rappresentano qualcosa che non rappresentano. Possono anche comportare la condivisione di immagini di eventi diversi, in una data diversa, per creare una falsa narrativa e screditare chi viene preso di mira.
Cos’è un deepfake? Originati da un utente Reddit che ha condiviso video modificati di volti di celebrità messi in video pornografici, i deepfake si riferiscono a nuovi contenuti audio e/o video prodotti utilizzando tecniche di intelligenza artificiale come i generative adversarial networks (GANs), I GANs coinvolgono due reti neurali in competizione l’una contro l’altra: una crea contenuti falsi e l’altra cerca di rilevarli. I GANs possono essere addestrati utilizzando immagini, suoni e video del target. Il risultato è un “nuovo” contenuto audio e/o visivo modificato in modo convincente. I deepfake possono comportare la rappresentazione di individui che fanno o dicono cose che non hanno mai fatto o detto. Possono anche comportare la generazione di una nuova “persona”, un’immagine fissa di un nuovo volto da utilizzare nella creazione di un personaggio online fabbricato. La ricerca ha scoperto che la maggior parte delle migliaia di deepfake attualmente esistenti sono di natura pornografica, tuttavia altri esempi includono deepfake di politici, attivisti, celebrità e la regina Elisabetta.
Cosa sono gli shallowfakes? Una forma di contenuto di malinformazione, gli shallowfake si riferiscono a video che vengono presentati fuori contesto o modificati in modo grossolano. Questi effetti si ottengono utilizzando software di editing video o applicazioni per smartphone per modificare la velocità dei segmenti video o ritagliare clip insieme per omettere il contesto pertinente.
Che cos’è la provenance enhancing technology? Concentrandosi sulle origini del contenuto piuttosto che sul suo valore, le organizzazioni che sviluppano provenance enhancing technologies mirano a fornire ai consumatori di informazioni i mezzi per aiutarli a decidere se un contenuto è autentico e non manipolato. Questo si ottiene applicando i metadati del contenuto (ad es. mittente, destinatario, timestamp, posizione) per determinare chi lo ha creato, come è stato creato e quando è stato creato. Questo è l’obiettivo principale della Coalition for Content Provenance and Authenticity (un’iniziativa guidata da Adobe, ARM, BBC, Intel, Microsoft, TruePic e Twitter) che sta sviluppando una serie di specifiche tecniche sulla provenienza dei contenuti. Se sufficientemente abilitate, le piattaforme sarebbero in grado di affrontare o etichettare meglio i contenuti e le informazioni problematici e i consumatori saranno in grado di determinare la veridicità di un’affermazione, un’immagine o un video.
Cosa sono i bot? I bot sono account online preprogrammati che interagiscono e rispondono ai contenuti online in modo automatizzato. Assumono molte forme nell’ambiente informativo online. I chatbot possono agire come operatori del servizio clienti per grandi aziende (es. banche) o come falsi personaggi sulle piattaforme dei social media. Gli assistenti vocali riconoscono e rispondono verbalmente alle richieste vocali fatte da un utente a un dispositivo smart. I bot crawler svolgono attività amministrative di base per i proprietari, come l’indicizzazione di pagine Web o il contrasto di atti vandalici minori sui wikis. I traffic bots esistono per aumentare il numero di visualizzazioni di un contenuto online per aumentare le entrate derivanti dalla pubblicità online. Le applicazioni positive dei bot includono il loro uso per contrastare la disinformazione, per supportare le persone con disabilità e per diffondere aggiornamenti sulle notizie. Le applicazioni negative includono l’uso di bot per influenzare in modo ingannevole l’opinione pubblica, per sopprimere le notizie e per abusare delle persone.
Fonte: https://greenreport.it/news/comunicazione/lambiente-della-disinformazione-online/