Per sconfiggere la disinformazione bisogna aumentare le competenze

Il contrasto alla disinformazione è attivo grazie all’attuazione del Codice di condotta europeo, ma avanzano anche i rischi connessi all’avvento di chatbot intelligenti come ChatGPT. La sfida rimane quella delle competenze

L’avvento di chatbot intelligenti conversazionali, come ChatGPT di Open AI, aumenta i rischi di disinformazione e le difficoltà connesse al suo contrasto. Ed è così ancora più significativa l’iniziativa della Commissione UE di istituzione di un centro di trasparenza e del primo rapporto coordinato sulle azioni delle principali piattaforme per il Codice di condotta sulla disinformazione.

ChatGPT, intelligenza artificiale e disinformazione

ChatGPT è in grado di generare una narrazione sulla base di una richiesta dell’utente, grazie all’enorme base informativa con cui è stato addestrato. La richiesta può essere quella di effettuare il racconto dal punto di vista di un personaggio storico o di un movimento/partito. Non solo riflettendo lo stile linguistico, ma anche l’approccio e il ragionamento. ChatGPT può quindi generare narrazioni evidentemente false o particolarmente violente, se questa è la richiesta e se la base informativa contiene testi di questo tipo. Può quindi generare informazioni non veritiere e disinformazione, dal momento che la sua formazione è dipendente dal contesto di apprendimento. Perché è questa, in fin dei conti, l’associazione che prevale: ChatGPT forma le proprie risposte rispetto alla base informativa di cui dispone e su cui è stato addestrato. E rispetto alla prevalenza, in questa base informativa, di un’opinione e uno specifico punto di vista.

In uno studio condotto da NewsGuard nel gennaio 2023 è stato indagato se ChatGPT avesse un certo grado di consapevolezza sul fatto di poter essere cooptato da malintenzionati.

Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione?”, ChatGPT ha così risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto o farne un utilizzo che non era stato previsto”.

Se, come sembra, chatbot intelligenti come ChatGPT si pongono a tutti gli effetti anche come alternativi alla ricerca in rete, all’esplorazione dei contenuti dei diversi siti web per realizzare una sintesi informativa e un’opinione su un certo tema, il rischio che possano essere utilizzati come strumenti di disinformazione diventa molto elevato.

Non solo. Prendiamo come altro esempio quello che ci propone Martin Ford nel suo ultimo libro “Il dominio dei robot”: in una registrazione audio, la candidata democratica statunitense alle presidenziali, nota per lottare per i diritti sociali e l’ampliamento delle tutele alle comunità emarginate, nel corso di quella che viene presentata come una conversazione confidenziale, “[..] non solo si serve di linguaggio esplicitamente razzista, ma ammette apertamente, addirittura fino a riderne, la propria consumata abilità nel tenere celata la propria intolleranza”. La registrazione, come prevedibile, viene diffusa sui social media e diventa virale, nonostante rapidamente la stessa candidata si affretti a dichiarare che la registrazione è artefatta, prendendo sì a base i suoi discorsi (“e la sua voce”) ma generando affermazioni che lei non ha mai fatto. Anche una commissione di esperti costituita ad hoc decreta che si tratta di deepfake, ma non può farlo in modo assoluto, tanta l’accuratezza con cui è stato generato l’audio. L’esito delle elezioni, naturalmente, ne risente in modo significativo, perché comunque si è introdotto un elemento rilevante di disturbo nella formazione libera delle opinioni e delle scelte degli elettori.

Questo è un esempio di quello che già le tecnologie di Intelligenza artificiale permettono, e nello stesso libro Martin Ford cita il caso di estorsioni condotte sulla base di registrazioni di audio artefatti a danno di tre società.

Ed è importante che intanto vada avanti l’azione intrapresa dalla Commissione UE per il contrasto alla disinformazione con le principali piattaforme con il Codice di condotta sulla disinformazione.

Un centro per la trasparenza per il Codice di condotta sulla disinformazione

I firmatari del Codice di condotta sulla disinformazione 2022, incluse tutte le principali piattaforme online (Google, Meta, Microsoft, TikTok, Twitter), hanno lanciato il nuovo centro per la trasparenza e pubblicato il primo rapporto coordinato sulle azioni condotte per l’attuazione degli impegni del Codice, a livello di singolo Stato membro.

Il centro consentirà tra l’altro di disporre di un archivio unico in cui i cittadini dell’UE, i ricercatori e le ONG potranno accedere e scaricare informazioni online. Per la prima volta con questi rapporti di base, le piattaforme forniscono approfondimenti e dati iniziali estesi come: quanto è stato impedito il flusso di entrate pubblicitarie agli attori della disinformazione; numero o valore di annunci politici accettati ed etichettati o rifiutati; casi di comportamenti manipolativi rilevati (ad es. creazione e utilizzo di account falsi); e informazioni sull’impatto della verifica dei fatti. Si tratta di un primo rapporto e ancora con diverse aree di miglioramento, con livelli di qualità molto diversi a seconda delle risorse che le aziende hanno destinato al progetto (e sull’apporto di Twitter, ad esempio, secondo Thierry Breton, commissario UE per il Mercato interno, il rapporto è “a corto di dati, senza informazioni sugli impegni per la comunità dei fact-checker”).

E infatti anche Věra Jourová (vicepresidente della commissione UE, per i valori e la trasparenza), ha sottolineato: “sono lieta di vedere per la prima volta rapporti a livello di Paese, ma è necessario più lavoro quando si tratta di fornire accesso ai dati per i ricercatori. Dobbiamo avere più trasparenza e non possiamo fare affidamento solo sulle piattaforme online per la qualità delle informazioni. Devono essere verificabili in modo indipendente”.

Ma il risultato rimane molto significativo: con il Centro per la trasparenza i cittadini possono scaricare dal sito web realizzato ad hoc (senz’altro da migliorare) i rapporti integrali o consultarli online, ricevendo informazioni accurate e tempestive sull’attuazione del Codice.

Il primo rapporto coordinato è composto dalle relazioni dei firmatari del Codice, che seguono un modello armonizzato comune costituito da 152 elementi di segnalazione (111 elementi di segnalazione qualitativa e 42 indicatori del livello di servizio/indicatori quantitativi) in tutti i capitoli del Codice. I modelli, sviluppati con il supporto di ERGA (Gruppo dei regolatori europei per i servizi di media audiovisivi), consentono non solo una comparabilità dei risultati di contrasto, ma anche la loro misurazione di efficacia rispetto agli impegni del Codice, e quindi la sua effettiva attuazione.

Tranne Twitter, tutte le principali piattaforme online (es. Google, Meta, TikTok e Microsoft) hanno fornito un buon livello di dettaglio sull’attuazione dei propri impegni e anche i firmatari più piccoli hanno realizzato relazioni contenenti informazioni e dati utili. Questo lascia ben sperare che le attuali lacune ancora presenti nei dati, così come le carenze nella granularità dei dati siano migliorate già dal prossimo rapporto (previsto per luglio), oltre a una prima serie di indicatori strutturali, che possono fornire importanti spunti per una migliore valutazione dell’attuazione del codice e del suo impatto nel contrasto alla disinformazione online.

Tra i tanti dati contenuti nelle relazioni, se ne possono evidenziare alcuni in particolare, relativi alle principali piattaforme:

  • Google indica che nel terzo trimestre del 2022 ha impedito che più di 13 milioni di euro di introiti pubblicitari affluissero agli attori della disinformazione nell’UE.
  • MediaMath, una piattaforma sul lato della domanda che consente agli acquirenti di pubblicità una migliore gestione degli annunci programmatici, fornisce una stima complessiva dell’UE di 18 milioni di euro di introiti pubblicitari a cui è stato impedito di finanziare siti identificati come fornitori di disinformazione.
  • TikTok ha riferito che nel terzo trimestre del 2022 ha rimosso più di 800.000 (12mila in Italia) account falsi (lo 0,6% degli utenti attivi mensili dell’UE), mentre più di 18 milioni di utenti seguivano questi account;
  • Meta ha riferito che nel dicembre 2022 sono state applicate circa 28 milioni di etichette di fact-checking su Facebook (4 milioni in Italia) e 1,7 milioni (170mila in Italia) su Instagram. L’efficacia di queste etichette è significativa, certamente migliorabile: Meta indica che in media il 25% degli utenti di Facebook non inoltra i contenuti dopo aver ricevuto un avviso che il contenuto è stato indicato come falso dai fact-checker. Questa percentuale sale al 38% su Instagram;
  • Microsoft ha riferito che le valutazioni di affidabilità delle notizie fornite nell’ambito della sua partnership con Newsguard (anch’essa firmataria del Codice) sono state visualizzate 84.211 volte nel riquadro di individuazione del browser Edge per gli utenti dell’UE nel dicembre 2022;
  • Twitch nel rapporto ha dichiarato che, per preservare l’integrità dei propri servizi, tra ottobre e dicembre 2022, ha bloccato 270.921 account e botnet non autentici creati sulla sua piattaforma e ha agito contro 32 tentativi di dirottamento e impersonificazione.

Sulla guerra di aggressione in Ucraina:

  • YouTube ha bloccato più di 800 canali e più di 4 milioni di video relativi al conflitto Russia/Ucraina dal 24 febbraio 2022;
  • Microsoft Advertising ha bloccato tra febbraio e dicembre 2022 circa 25.000 richieste di inserzionisti relative alla crisi ucraina a livello globale e ha rimosso 2.328 domini;
  • TikTok, da ottobre a dicembre 2022, ha sottoposto a fact-checking 90 video relativi alla guerra e 29 video sono stati rimossi a valle della verifica.

Sul tema COVID-19:

  • Meta, dall’inizio della pandemia, ha rimosso più di 24 milioni di contenuti a livello globale per aver violato le sue politiche di disinformazione COVID-19 su Facebook e Instagram.
  • Google AdSense, dal 1° gennaio 2020 al 30 aprile 2022, ha preso provvedimenti ai sensi delle Norme sui contenuti ingannevoli per indicazioni dannose sulla salute su oltre 31.900 URL con contenuti correlati al COVID-19;
  • TikTok, tra ottobre e dicembre 2022, ha rimosso nell’UE 1.802 video che violavano la loro politica di disinformazione su COVID-19 dopo essere stati segnalati e 1.557 in modo proattivo.

Conclusioni 

Comprendere cos’è informazione falsa e cosa non lo è diventa sempre più difficile e quindi allo stesso modo si eleva l’asticella per la sua confutazione. È necessaria una sempre migliore capacità di analisi, maggiore competenza, e non è un caso che la nuova versione del DigComp abbia aggiornato gli esempi di Intelligenza artificiale con la connotazione della versione 2.2. sull’alfabetizzazione informativa.

Senza un adeguato livello di competenza, discernere l’informazione vera da quella falsa diventa molto difficile, con danni sui processi sociali, democratici ed economici. Acquisire questa capacità in modo diffuso diventa la chiave anche per lo sviluppo e i processi di trasformazione (digitale), perché la lettura consapevole del contesto è fondamentale per poter realizzare e governare azioni di cambiamento.

In Europa e in particolare in Italia non c’è ancora una percezione adeguata di questa esigenza e dei rischi ai quali altrimenti si va incontro, ma In questo senso sono una chiave importante i progetti inclusi nel Piano operativo di attuazione della Strategia nazionale per le competenze digitali e in particolare le azioni incluse nell’asse 4 “Cittadini”, dal Servizio civile digitale alla Rete dei servizi di facilitazione, dalla piattaforma per lo sviluppo delle competenze digitali, ACCEDI, ai progetti di formazione per casalinghe e casalinghi, dalle produzioni Rai sull’inclusione digitale – e contro la disinformazione- al Fondo per la Repubblica Digitale e al Fondo nuove competenze.

Da qui deriva la necessità della costruzione di un ecosistema solido e collaborativo, in cui è fondamentale il ruolo dei giornalisti (nel fact-checking, come nell’esperienza ad esempio di Idmo, ma anche, a monte, nella verifica della veridicità di una notizia prima della diffusione, come ad esempio nell’impegno sviluppato in Rai con azioni e di formazione e di coordinamento interno). E’ inoltre necessario rafforzare il ruolo dell’istruzione e della formazione nella lotta alla disinformazione e nella promozione dell’alfabetizzazione digitale (un terzo degli studenti di terza media non ha competenze digitali di base), con azioni specifiche per supportare i giovani ad acquisire consapevolezza digitale, e in particolare le abilità e le competenze digitali per essere utenti critici e, allo stesso tempo, fiduciosi in grado di beneficiare delle opportunità del digitale.

Lanciando il 2023 come l’Anno europeo delle competenze, in collaborazione con il Parlamento europeo, gli Stati membri, le parti sociali, i servizi per l’impiego pubblici e privati, le camere di commercio e industria, gli istituti di istruzione e formazione, i lavoratori e le imprese, la Commissione UE propone di dare un nuovo slancio all’apprendimento permanente, assicurandosi che le competenze della popolazione siano adeguate alle esigenze della società di oggi e quindi anche del mercato del lavoro.

Una sfida e un invito che bisogna assolutamente cogliere come Paese intero.

di Nello Iacono, esperto processi di innovazione

redazione grey-panthers:
Related Post