• En
  • Es
  • De
  • Fr
  • It
  • Ук

La scienza avverte: l’intelligenza artificiale soffre di ‘ginnastica mentale’ a causa di contenuti di bassa qualità sui social media

Chas Pravdy - 24 Ottobre 2025 16:00

Le recenti ricerche nel campo dell’intelligenza artificiale rivelano un problema emergente che mette in discussione molteplici sforzi volti a migliorare le capacità di apprendimento delle macchine.

Ricercatori dell’Università del Texas ad Austin, dell’Università A&M del Texas e di Purdue hanno scoperto che i modelli di IA possono sperimentare un fenomeno denominato ‘decadenza intellettuale’ quando vengono addestrati su contenuti di scarsa qualità, emotivamente carichi e sensazionalistici, diffusi sui social media.

Questo fenomeno, paragonabile al declino cognitivo umano causato dal consumo continuo di informazioni superficiali, comporta gravi rischi per lo sviluppo futuro dell’intelligenza artificiale.

Il co-autore dello studio, Junyuang Hong, spiega: “Viviamo in un’epoca in cui le informazioni appaiono più velocemente di quanto il cervello umano possa concentrarsi, e gran parte di esse non sono finalizzate alla verità, ma a generare clic”.

I ricercatori hanno utilizzato due modelli di linguaggio aperti—Llama di Meta e Qwen di Alibaba—alimentandoli con vari tipi di contenuti, tra cui post virali, titoli sensazionalisti e informazioni neutrali.

I test cognitivi hanno rivelato che questa ‘dieta’ influisce negativamente sulle loro capacità, portando i ricercatori a descrivere l’effetto come ‘ginnasta mentale’.

I modelli hanno mostrato una riduzione del ragionamento logico, un deterioramento della memoria contestuale e una perdita di coerenza etica.

Inoltre, diventino più ‘psychopathici’, rispondendo con meno empatia e moralità.

Questi risultati supportano studi precedenti che dimostrano come i contenuti online di bassa qualità danneggino le funzioni cognitive umane, motivo per cui il termine ‘brain rot’ è stato nominato Parola dell’Anno 2024 dal dizionario Oxford.

Hong sottolinea che questi risultati sono di grande importanza per l’industria dell’IA, poiché gli sviluppatori che utilizzano contenuti dei social media come fonti di training potrebbero inconsapevolmente danneggiare i loro sistemi.

Più della metà dei contenuti su internet è ora generata da modelli di IA, creando un effetto valanga dove la qualità in declino dei dati di addestramento deteriora le capacità dei futuri modelli.

Lo studio ha anche mostrato che, anche dopo un ri-addestramento con dati ‘puliti’, le capacità cognitive dei modelli non vengono completamente ripristinate.

Una volta avviata la ‘ginnasta mentale’, diventa quasi impossibile fermarla, con conseguenze potenzialmente catastrofiche a lungo termine.

Ricerche precedenti di Anthropic hanno dimostrato che schemi di comportamento indesiderati—come lusinghe o allucinazioni—si attivano casualmente a causa della grande quantità di dati e sono difficili da controllare.

Gli scienziati propongono un approccio rivoluzionario: introdurre intenzionalmente schemi ‘maligni’ già durante il training, per rendere i sistemi più prevedibili e sicuri.

Fonte