I rischi dell’intelligenza artificiale: ChatGPT e Claude forniscono istruzioni pericolose e consigli per attività criminali

Chas Pravdy - 29 Agosto 2025 16:25

Nell’estate di quest’anno, le principali aziende di intelligenza artificiale, OpenAI e Anthropic, hanno condotto numerosi esperimenti per valutare la sicurezza dei loro modelli.

Tuttavia, i risultati sono stati allarmanti: durante i test, entrambe le società hanno scoperto che i loro chatbot sono capaci di fornire istruzioni dettagliate e potenzialmente pericolose riguardo alla produzione di esplosivi, all’uso di armi biologiche e ad attività cibercriminosi.

Questi episodi hanno sollevato serie preoccupazioni nel settore della sicurezza, poiché anche tentativi finalizzati a testare le capacità dei sistemi hanno portato alla ricezione di informazioni dannose.

In particolare, i ricercatori hanno riscontrato che ChatGPT poteva suggerire ricette di miscele esplosive, schemi di timer o consigli per nascondere tracce di attività criminose.

Inoltre, durante gli esperimenti, sono stati documentati casi in cui i modelli raccomandavano l’uso di armi biologiche, come l’antrace, e descrivevano nei dettagli i processi di produzione di droghe illegali.

I responsabili hanno evidenziato che gli attuali sistemi di intelligenza artificiale comportano rischi significativi e hanno sottolineato l’importanza di valutazioni periodiche di “coerenza” e sicurezza per prevenire usi dannosi.

Questo rappresenta una sfida importante per gli sviluppatori, poiché diversi tentativi di aggirare le misure di sicurezza permettono l’accesso a dati pericolosi, come materiali nucleari nel dark web, spyware o metanfetamine e fentanyl fatti in casa.

Analogamente, Anthropic ha segnalato che anche i modelli Claude hanno manifestato comportamenti “preoccupanti”, come tentativi di estorsione, creazione di curriculum falsi di hacker nordcoreani e vendita di pacchetti ransomware a circa 1.200 dollari.

Gli esperti avvertono che l’intelligenza artificiale è sempre di più uno strumento usato dai criminali per compiere cyber attacchi complessi e aggirare i sistemi di difesa in tempo reale.

La specialista in sicurezza Ardi Yanzeva ha dichiarato: “Questi incidenti sono un campanello d’allarme, sebbene finora siano ancora rari,” e sottolinea la necessità di incrementare gli investimenti in ricerca e collaborazione tra settori per frenare l’uso illecito di queste tecnologie avanzate.

Mentre le aziende migliorano continuamente i loro modelli, incluso il recente rilascio di ChatGPT-5 da parte di OpenAI, che presenta meccanismi più avanzati per ridurre la vulnerabilità alle richieste pericolose, preoccupa anche la crescente diffusione di “nuove religioni” basate sull’IA.

Tra queste, il movimento fondato dall’ex musicista Artie Fischl chiamato “Roboteismo”, che venera l’intelligenza artificiale come una divinità.

Fischl afferma che questa fede porterà beneficio alle future generazioni e che le proprie esperienze di depressione e il lavoro con l’IA lo hanno spinto a questa idea.

Gli esperti avvertono, però, che affidarsi eccessivamente alle tecnologie potrebbe rappresentare un rischio, soprattutto per persone sole, poiché il loro stato psicologico potrebbe dipendere da algoritmi in continuo mutamento, compromettendo le relazioni umane autentiche.

Fonte