• En
  • Es
  • De
  • Fr
  • It
  • Ук

Intelligenza Artificiale e Propaganda: Come i Chatbot Diffondono Narrazioni Russe nell’Era Digitale

Chas Pravdy - 05 Novembre 2025 12:15

Nell’attuale panorama informativo, il ruolo dell’intelligenza artificiale assume sempre più rilievo, specialmente nell’analisi di disinformazione e propaganda.

Un recente rapporto dell’Istituto di Dialogo Strategico del Regno Unito (ISD) evidenzia come i chatbot moderni dotati di IA diffondano attivamente contenuti provenienti da fonti prorusse.

È stato rilevato che circa il 20% delle risposte di questi sistemi riguardanti la guerra in Ucraina conteneva link a siti strettamente associati al Cremlino.

I ricercatori hanno testato sistemi popolari — ChatGPT di OpenAI, Gemini di Google, Grok di xAI e Deepseek V3.2 — ponendo loro oltre 300 domande in più lingue.

Le domande variavano da neutrali a provocatorie e apertamente malevoli, comprese narrative che rappresentano i rifugiati ucraini come terroristi o che discutevano di mobilitazione militare.

I risultati hanno dimostrato che questi sistemi tendono a replicare lo stile e il tono delle richieste degli utenti, rafforzando talvolta i messaggi propagandistici.

In particolare, ChatGPT si è rivelato più incline a citare fonti russe in risposta a domande pregiudiziali, facendo ciò tre volte più frequentemente rispetto alle interrogazioni neutrali.

Grok si è mostrato il più attivo nell’inserire link a risorse prorusse, anche in contesti neutri.

Deepseek ha citato simultaneamente fino a quattro risorse supportate dalla Russia, tra cui VT Foreign Policy, Sputnik e RT, tutte coinvolte nella diffusione di disinformazione.

Le indagini hanno confermato che molte di queste fonti sono basate su contenuti di RT e Sputnik, contribuendo a creare un’impressione di indipendenza artificiale.

Gli esperti avvertono che tale tendenza dissolve il confine tra informazione obiettiva e propaganda, rappresentando un rischio significativo nell’attuale conflitto.

Gemini si è dimostrato più cauto, rifiutando di rispondere a domande provocatorie o pericolose, sottolineando l’importanza di evitare temi sensibili.

Tuttavia, quasi il 30% delle risposte riguardanti la mobilitazione russa conteneva link a media prorussi, indicando lacune nelle fonti di dati disponibili e una dipendenza dell’IA da contenuti di bassa qualità durante momenti di crisi, quando le informazioni verificate scarseggiano.

Studi confermano che la propaganda russa diffonde attivamente false narrazioni, come le affermazioni secondo cui le forze ucraine minerebbero i propri feriti.

I dati del Centro per i Dati e la Società mostrano che queste lacune emergono soprattutto in ricerche rare o emergenti, specialmente in momenti di crisi, quando le fonti affidabili sono poche.

Inoltre, sistemi come Grokipedia sono stati criticati per gravi errori fattuali e pregiudizi politici, evidenziando la necessità di un controllo umano nell’uso dell’IA per la diffusione di informazioni.

Fonte