Fuga di conversazioni riservate degli utenti del chatbot Grok: implicazioni e rischi per la privacy

Chas Pravdy - 22 Agosto 2025 14:37

Nel mondo delle tecnologie avanzate e dell’intelligenza artificiale, un episodio recente ha scatenato allarme e attenzione globale, rivelando vulnerabilità nel trattamento dei dati personali.

Milioni di conversazioni tra utenti e Grok, il chatbot basato sull’IA sviluppato dalla società xAI di Elon Musk, sono improvvisamente diventate accessibili pubblicamente grazie a Google.

La causa principale di questa fuga è attribuibile alla funzione di “condividi trascrizione”, che consente agli utenti di generare link unici per condividere dialoghi specifici.

Inaspettatamente, tali link, anziché rimanere privati, sono stati indicizzati dai motori di ricerca e hanno esposto informazioni sensibili a chiunque ne abbia accesso.

Stando ai report della BBC, entro il 21 agosto circa 300.000 conversazioni sono state rese pubbliche e trovate online, mentre Forbes ha stimato che il numero supera le 370.000 trascrizioni.

Tra i contenuti resi pubblici ci sono richieste di utenti per creare password sicure, consigli su salute e alimentazione, e domande personali che coinvolgono dettagli intimi.

Alcune conversazioni hanno altresì mostrato tentativi di testare i limiti del chatbot, compreso l’ottenimento di istruzioni per la produzione di sostanze illegali di categoria A.

La società xAI è già stata contattata per un commento sull’accaduto.

Fenomeni simili si sono verificati anche con altri servizi di IA; ad esempio, OpenAI ha recentemente sospeso la pubblicazione delle chat nei risultati di ricerca per evitare la divulgazione accidentale di dati privati.

Meta, invece, ha ricevuto critiche per aver mostrato conversazioni private con il suo chatbot Meta AI in feed pubblici.

Gli esperti avvertono che tali fughe di dati rappresentano una minaccia grave per la privacy: informazioni come nomi, località, dati sanitari e dettagli personali o aziendali rischiano di essere esposte senza possibilità di recupero.

La ricercatrice Carissa Veliz sottolinea che il vero problema risiede nella mancanza di trasparenza: le tecnologie moderne elaborano e conservano i nostri dati senza chiarimenti trasparenti o consenso informato.

“I nostri dati vengono elaborati da algoritmi misteriosi, senza che ne comprendiamo cosa succede”, dichiara.

Recenti sviluppi come l’interfaccia neurale di Stanford, capace di tradurre il linguaggio interno in testo con oltre il 74% di precisione, aprono nuove prospettive nel recupero della capacità di comunicazione di persone non vocali, ma sollevano anche importanti questioni di privacy da affrontare con attenzione.

Fonte