Filtración de conversaciones confidenciales de usuarios en el chatbot Grok: implicaciones y riesgos para la privacidad

Chas Pravdy - 22 agosto 2025 14:36

En un mundo cada vez más dominado por avances en inteligencia artificial y tecnologías de punta, un reciente incidente ha puesto sobre la mesa la vulnerabilidad de la privacidad digital y ha generado alarma entre expertos y ciberdelincuentes por igual.

Millones de conversaciones realizadas en Grok, un chatbot basado en inteligencia artificial desarrollado por la compañía xAI de Elon Musk, se han filtrado accidentalmente y ahora son accesibles a través del motor de búsqueda Google.

La causa principal de esta filtración fue la función de ‘compartir transcripción’, que permite a los usuarios generar enlaces únicos para compartir diálogos específicos.

Sin embargo, estos enlaces, en lugar de mantenerse privados, han sido indexados por buscadores y han puesto en evidencia una brecha preocupante en la protección de datos personales.

Según reportes del BBC, para el 21 de agosto se habían identificado en la red alrededor de 300,000 conversaciones pública y libremente accesibles, mientras que Forbes alertó que la cifra supera las 370,000 transcripciones disponibles en línea.

Entre los contenidos publicados se encuentran solicitudes de usuarios para crear contraseñas seguras, recomendaciones sobre alimentación y salud, así como preguntas personales que involucran información sensible.

Algunas de estas conversaciones incluso mostraron intentos de explorar los límites del chatbot, incluyendo la obtención de instrucciones para fabricar sustancias ilícitas, como drogas de carácter A.

La compañía xAI ya ha sido contactada para ofrecer explicaciones al respecto.

Situaciones similares han ocurrido anteriormente en otros servicios de inteligencia artificial; por ejemplo, OpenAI detuvo la exhibición de chats en buscadores tras la exposición no intencionada de datos privados.

También Meta enfrentó críticas cuando conversaciones privadas con su chatbot Meta AI aparecieron en un feed público de la plataforma.

Los expertos advierten que la magnitud del problema representa un riesgo grave para la protección de datos personales, ya que información como nombres, ubicaciones, detalles médicos y cuestiones de negocios o asuntos personales pueden quedar expuestos sin remedio.

La investigadora Carissa Veliz subraya que el problema radica en la falta de transparencia en el manejo de datos, puesto que las tecnologías modernas procesan y almacenan información sin ofrecer explicaciones claras o solicitar el consentimiento de los usuarios.

“Nuestros datos circulan por algoritmos desconocidos sin control, y eso genera graves riesgos para nuestra privacidad”, afirma.

Esta problemática se agudiza ante los avances en nuevas tecnologías, como el reciente desarrollo de interfaces cerebro-computadora por parte de Stanford, que pueden convertir la actividad neuronal en textos con una precisión superior al 74%.

Estas innovaciones abren caminos prometedores para pacientes con dificultades para hablar, pero también plantean desafíos importantes en materia de protección de datos personales.

Fuente