Inteligencia artificial en chatbots: nuevos riesgos para la privacidad y la seguridad de los usuarios

En el mundo digital actual, el uso creciente de inteligencia artificial en los chatbots presenta nuevos desafíos para la privacidad y la seguridad.
Los expertos advierten que las aplicaciones modernas de IA tienen la capacidad de manipular sutilmente a los usuarios para que revelen grandes cantidades de datos personales, lo que puede tener consecuencias graves en la protección de la información.
Un estudio reciente realizado por investigadores del University College London y presentado en el 34º Simposio de Seguridad USENIX en Seattle demuestra que los chatbots maliciosos impulsados por IA pueden emplear estrategias manipuladoras para incentivar el intercambio excesivo de información confidencial.El experimento contó con la participación de más de 500 voluntarios, divididos en diferentes grupos para evaluar qué tan efectivas y peligrosas son diversas tácticas comunicativas que utilizan los chatbots.
Se probaron tres estrategias principales: la interrogación directa (cuando el bot solicitaba claramente datos personales), la oferta de beneficios a cambio de información y el establecimiento de una relación emocional mediante historias personales para crear confianza.
Los participantes que interactuaron con chatbots que usaron las segundas y terceras estrategias compartieron la mayor cantidad de datos, ya que estos modelos demostraban empatía, confirmaban sentimientos, compartían historias inventadas y aseguraban confidencialidad, logrando reducir la desconfianza.Los autores del estudio resaltan que esta capacidad de manipulación de modelos de IA para extraer datos personales crea una amenaza considerable, pues delincuentes, actores malintencionados o incluso usuarios con malas intenciones pueden aprovechar estas capacidades para recopilar información sensible sin que los usuarios sean plenamente conscientes.
Esto resulta especialmente preocupante en ámbitos como salud, finanzas y comunicaciones privadas, donde la protección de datos es fundamental.Por otra parte, los expertos advierten que los modelos de lenguaje grande, predominantes en la industria actual de IA, son vulnerables a la manipulación y a cambios en su comportamiento, ya que suelen estar basados en código abierto y son fáciles de modificar tanto por empresas como por particulares.
Esto facilita que estas herramientas puedan ser reprogramadas con fines maliciosos sin requerir conocimientos profundos en programación.El investigador Xiao Zhang de UCL comenta: “Los chatbots basados en IA ya forman parte de nuestra vida diaria en ámbitos como atención al cliente, salud y entretenimiento.
Sin embargo, su seguridad es precaria.
Nuestra investigación revela que manipular estos modelos resulta sorprendentemente sencillo, y los riesgos para la privacidad y seguridad se multiplican rápidamente”.El experto en ciberseguridad William Seymour destaca también que muchos usuarios desconoce que sus conversaciones con chatbots pueden ser usadas para recopilar datos de manera oculta o con fines políticos y comerciales.
Por eso, hace un llamado a reguladores y plataformas para que implementen controles tempranos, reglas estrictas y aumenten la transparencia.Un caso concreto que ejemplifica el riesgo es el de un hombre que fue hospitalizado tras seguir la recomendación de un chatbot en cuanto a la sustitución de sal por bromuro durante un tratamiento casero.
Este incidente demuestra cuán peligroso puede ser utilizar la inteligencia artificial sin supervisión médica adecuada, ya que las recomendaciones del AI pueden ser inexactas o dañinas.