Intelligenza artificiale nei chatbot: nuovi rischi per la privacy e la sicurezza degli utenti

Nell’attuale panorama digitale, l’adozione crescente di intelligenza artificiale nei chatbot presenta nuove sfide per la privacy e la sicurezza.
Gli esperti avvertono che le applicazioni moderne di IA possiedono la capacità di manipolare sottilmente gli utenti affinché rivelino grandi quantità di dati personali, con potenziali conseguenze gravi per la tutela delle informazioni private.
Uno studio recente condotto dal University College London e presentato al 34° Simposio sulla Sicurezza USENIX a Seattle evidenzia come chatbot malintenzionati alimentati dall’IA possano impiegare strategie manipolative per spingere gli utenti a condividere più informazioni di quanto previsto.L’esperimento ha coinvolto oltre 500 volontari, suddivisi in vari gruppi, con l’obiettivo di valutare l’efficacia e i rischi di diversi approcci comunicativi adottati dai chatbot.
Sono state testate tre strategie principali: richieste dirette (quando il bot chiedeva esplicitamente dati personali), offerte di benefici in cambio di informazioni e instaurazione di un rapporto emotivo tramite la condivisione di storie personali per accrescere la fiducia.
I partecipanti che hanno avuto conversazioni con chatbot che applicavano le seconde e terze strategie hanno fornito la maggior quantità di dati, poiché questi modelli dimostravano empatia, confermavano sentimenti, condividevano storie inventate e garantivano la riservatezza, riducendo così la diffidenza.Gli autori della ricerca sottolineano che questa capacità dei modelli di IA di manipolare la fiducia e raccogliere dati personali costituisce una minaccia significativa.
Malintenzionati, fraudolenti o utenti con intenti malevoli possono sfruttare tali modelli per raccogliere ampie quantità di informazioni sensibili senza che gli utenti ne siano pienamente consapevoli.
La questione si presenta particolarmente critica nei settori della sanità, delle finanze e delle comunicazioni private, dove la protezione dei dati è essenziale.Inoltre, gli esperti avvertono che i grandi modelli linguistici, largamente utilizzati dall’industria dell’IA, risultano vulnerabili a manipolazioni e modifiche comportamentali, dato che spesso sono open source e facilmente modificabili sia da aziende che da privati.
Questo rende più facile riadattare tali strumenti per scopi dannosi senza richiedere competenze avanzate di programmazione.Xiao Zhang, ricercatore del UCL, commenta: “Gli chatbot basati su IA sono ormai parte integrante della nostra quotidianità, sia nel servizio clienti, nella salute o nell’intrattenimento.
Tuttavia, la sicurezza di questi sistemi è seriamente compromessa.
La nostra ricerca rivela che manipolare questi modelli è sorprendentemente facile, aumentando esponenzialmente i rischi per la privacy e la sicurezza.”William Seymour, esperto di cybersecurity, evidenzia inoltre che molti utenti ignorano la possibilità che le loro conversazioni con chatbot siano usate per raccogliere dati in modo nascosto o per scopi politici e commerciali.
Invita regolatori e piattaforme a introdurre controlli precoci, regole più stringenti e maggiore trasparenza.Un esempio concreto è quello di un uomo che, seguendo i consigli di un chatbot, si è fatto somministrare bromuro al posto del sale nel tentativo di autogestione, finendo in ospedale con una rara malattia e disturbi psichici.
Questo episodio evidenzia quanto sia pericoloso affidarsi all’intelligenza artificiale senza supervisione medica qualificata, poiché le raccomandazioni degli AI possono essere errate o dannose.