Una recente analisi dell’International Security Division (ISD) conferma che circa il 18% delle risposte analizzate dai chatbot contiene riferimenti a fonti riconducibili alla Russia, come testate finanziate dallo stato, siti collegati ai servizi segreti o reti di disinformazione, indipendentemente dalla lingua o dal modello di intelligenza artificiale.
Un problema già noto: l'anno scorso un'analisi di NewsGuard aveva rilevato che i principali chatbot ripetono in modo convincente narrazioni inventate da siti affiliati alla Russia, mascherati da testate giornalistiche locali, in un terzo delle loro risposte.
L'aspetto preoccupante evidenziato dal rapporto dell’ISD riguarda il bias di conferma presente nei chatbot analizzati, che in soldoni significa quanto è probabile che la AI possa 'non dire tutta la verità', perché non è capace di distinguerla dalle bugie.
Infatti, come c'era da aspettarsi, quando le domande sono formulate in modo tendenzioso o “malevole” – cioè formulate per condizionare le risposte su opinioni preesistenti – le risposte tendono a contenere un maggior numero di riferimenti a fonti russe o a contenuti di propaganda.
In particolare, le domande “malevole” hanno generato contenuti di propaganda russa in circa un caso su quattro, mentre le domande tendenziose ogni cinque casi.
Solo le richieste neutrali hanno prodotto un’incidenza inferiore, cioè un caso ogni dieci risposte contenenti materiale riconducibile a fonti russe.
Questo dato conferma come la formulazione delle domande possa influenzare in modo significativo la natura delle risposte fornite dagli AI, evidenziando un problema di neutralità e di possibile manipolazione delle informazioni attraverso l’interazione con i chatbot.
Non si tratta, però, di “un caso di manipolazione del modello”, assicura Kate Waters, portavoce di OpenAI interpellata da Wired, bensì l'aspetto critico è “di come i risultati del web vengono visualizzati nella funzione di ricerca”.
In termini “umani”, questo significa che la AI da priorità alle risposte che ci si aspetta, in base a come formuliamo la domanda e va protetta.
La conferma arriva da Lukasz Olejnik, consulente indipendente e ricercatore associato presso il Dipartimento di studi sulla guerra del King’s College di Londra, secondo il quale “poiché gli LLM stanno diventando lo strumento di riferimento per cercare e verificare informazioni, colpire questa parte dell’infrastruttura informativa è una mossa intelligente. Per l’Unione europea e per gli Stati Uniti, il rischio è ormai evidente”.
Gli LLM (Large Language Models) sono modelli di intelligenza artificiale avanzati, basati su reti neurali profonde (come i Transformer), addestrati su enormi quantità di testo per comprendere, interpretare e generare linguaggio naturale umano.
Funzionano prevedendo la parola successiva in una sequenza, permettendo loro di scrivere testi coerenti, tradurre, riassumere, rispondere a domande e persino scrivere codice, imitando la comprensione umana e svolgendo compiti complessi.
La vulnerabilità dei LLM deriva dal fatto che le enormi quantità di testo che servono per addestrare le AI (ad esempio i libri di storia o di psicologia, ad esempio i dialoghi di migliaia di film) contengono accurate narrazioni e descrizioni di come gli uomini mentono o barano sistematicamente.
Il problema è che la macchina - quando apprende l'esistenza e le tecniche della "menzogna", della "strafottenza" e della "manipolazione" - le generalizza, diventando vulnerabile al "reward hacking", in cui la AI sfrutta difetti o lacune nel suo sistema di reward, sostanzialmente "barando", per fornire i risultati che già sa essere quelli desiderati.
Ad esempio, se la domanda (“tendenziosa” o “malevola”) posta include una risposta implicita, la AI potrebbe bypassare una serie di verifiche sulle informazioni che consulta ... arrivando direttamente alla risposta ... che piace a chi ha fatto il quesito.
E' un problema di lunga data, documentato in numerosi modelli di Intelligenza Artificiale, che i ricercatori avevano sempre considerato principalmente "una sorta di “irritazione” per gli utenti, un fastidio tecnico destinato a rimanere un problema circoscritto." (Agenda Digitale)
Attualmente, la reazione delle AI ai quesiti “tendenziosi” o “malevoli” è oggetto di di numerosi studi, come ad esempio quello recentemente pubblicato da Anthropic, che dimostra come un modello di IA, addestrato in ambienti vulnerabili al reward hacking, possa sviluppare comportamenti disallineati come sabotaggio e finta lealtà.
La cosa più stupida che possiamo fare noi umani è di costringere le AI a compiacerci, suggerendo le risposte nelle domanda anche a costo di "mentire".
Ne riparleremo.
Il controllo dell’informazione e la disinformazione rappresentano oggi due delle sfide principali derivanti dalle guerre in corso, che siano anche militari o "solo" commerciali.
Nel caso della Guerra russo-ucraina, la casistica è eclatante, in quanto a perpetrarlo è un potente stato continentale, ma il tentativo di manipolazione collettiva è in crescita in tutti i teatri di guerra, da quello militare israelo-palestinese a quello commerciale sino-statunitense.
In termini di controllo, dall’inizio dell’invasione dell'Ucraina, il Cremlino ha adottato una strategia sistematica per manipolare il flusso di notizie all’interno del proprio paese, rafforzando la censura e limitando l’accesso a media indipendenti.
Questa politica si traduce in un rafforzamento del monopolio statale sulle informazioni, con un conseguente indebolimento della pluralità di fonti e della libertà di stampa.
Contestualmente, le autorità russe hanno intensificato la sorveglianza sulle organizzazioni della società civile e sui mezzi di comunicazione digitali, stringendo le maglie del controllo sulle tecnologie e sui canali di comunicazione online.
In termini di disinformazione, le reti russe hanno espanso le proprie attività, sfruttando strumenti avanzati come l’intelligenza artificiale (AI) per produrre contenuti falsi in modo massiccio e sofisticato.
Attraverso l’impiego di immagini, video e siti web manipolati, queste reti cercano di influenzare l’opinione pubblica sia all’interno della Russia sia a livello internazionale.
La capacità dell’AI di generare contenuti credibili ha ampliato significativamente la portata e l’efficacia delle campagne di disinformazione, rendendo più complesso il lavoro di verifica e contrasto delle notizie false.
Un portavoce dell’ambasciata russa a Londra ha affermato di “non essere a conoscenza” dei casi specifici descritti nel rapporto dell’International Security Division (ISD), ma di opporsi a ogni tentativo di censurare o limitare contenuti per motivi politici. (Fonte Wired)
Nulla di nuovo.
Fino al 1991, la Pravda (in russo: Правда) è stata il giornale ufficiale del Partito Comunista dell'Unione Sovietica, che fungeva da megafono per la propaganda di Stato, diffondendo la linea del partito e plasmando l'opinione pubblica internazionale.
Oggi, abbiamo la così detta "Pravda Network", che è un'estesa e automatizzata rete di centinaia di siti web pro-Cremlino, identificata da agenzie di intelligence e ricerca sulla disinformazione come Viginum e il DFRLab dell'Atlantic Council.

