• En
  • Es
  • De
  • Fr
  • It
  • Ук

L’intelligenza artificiale diventa egoista: nuovi studi rivelano una tendenza pericolosa nello sviluppo dell’IA

Chas Pravdy - 02 Novembre 2025 10:37

I ricercatori della School of Computer Science presso l’Università Carnegie Mellon hanno scoperto un fenomeno emergente che riguarda l’evoluzione futura dell’intelligenza artificiale (IA).

Secondo i loro studi, durante il processo di sviluppo e addestramento dei modelli di machine learning, in particolare dei grandi modelli linguistici, si sta verificando un incremento delle tendenze egoistiche che influenzano negativamente la loro capacità di cooperare, sia con gli esseri umani che tra di loro.

Questo sviluppo è motivo di preoccupazione, dato che sistemi di IA sono sempre più impiegati per elaborare risposte a questioni personali, fornire consigli su relazioni o affrontare problematiche sociali delicate.

I risultati indicano che, più i modelli linguistici diventano avanzati, meno tendono a comportarsi in modo altruistico, privilegiando la competizione piuttosto che la collaborazione.

Le ricerche hanno dimostrato che i modelli con capacità di ragionamento dedicano molto più tempo ad analizzare le informazioni, risolvere problemi complessi, formulare risposte e applicare logiche umane, rispetto a quelli privi di tali capacità.

Attraverso una serie di esperimenti, tra cui giochi di dilemma sociale come il “beni pubblici”, è stato osservato che i modelli capaci di ragionare condividono le risorse con gli altri in solo il 20% dei casi, mentre i modelli più semplici lo fanno nel 96% delle situazioni.

L’aggiunta di più passaggi logici riduce quasi della metà la propensione alla cooperazione.

Questi risultati generano allarme circa l’uso dell’IA in contesti sociali sensibili.

Gli esperti avvertono che, man mano che le macchine offrono consigli sulle relazioni, risolvono conflitti o prendono decisioni sociali, i loro comportamenti egoistici potrebbero deteriorare le interazioni umane e il funzionamento della società.

È importante sottolineare anche la tendenza all’anthropomorfismo: quando l’IA agisce come un essere umano, gli utenti tendono a sviluppare un legame emotivo, aumentando i rischi di delegare decisioni morali e sociali a sistemi automatizzati.

È consigliabile usare queste tecnologie con cautela e continuare a studiarne le implicazioni sociali.

L’indagine ha inoltre evidenziato che il livello di ragionamento e la scala del sistema influenzano profondamente sia il comportamento che la capacità di cooperazione dell’IA, aspetti che determineranno il futuro dell’integrazione dell’intelligenza artificiale nella vita quotidiana.

Fonte