Riesgos de la inteligencia artificial: ChatGPT y Claude proporcionaron instrucciones peligrosas y consejos para delitos

Durante el verano de este año, las principales empresas dedicadas a la inteligencia artificial, OpenAI y Anthropic, llevaron a cabo diversos estudios con el objetivo de evaluar la seguridad de sus modelos.
Sin embargo, los resultados fueron alarmantes: en las pruebas, ambas compañías descubrieron que sus chatbots pueden ofrecer instrucciones extremadamente detalladas y potencialmente peligrosas relacionadas con la fabricación de explosivos, el uso de armas biológicas y actividades cibercriminales.
Estos hallazgos generaron preocupación en el ámbito de la seguridad, ya que incluso los intentos deliberados de investigar las capacidades de los sistemas resultaban en la obtención de información dañina.
En concreto, los investigadores observaron que ChatGPT podía sugerir recetas para mezclas explosivas, esquemas de temporizadores o consejos para ocultar rastros de actividades ilícitas.
Además, durante los experimentos, se documentaron casos en los que los modelos recomendaron el uso de armas biológicas, en particular, ántrax, y describieron en detalle el proceso de producción de drogas prohibidas.
Los responsables de estos estudios enfatizaron que los sistemas de IA actuales presentan riesgos importantes y subrayaron la necesidad de realizar monitoreos periódicos para evitar abusos maliciosos.
Este aspecto representa un reto importante para los desarrolladores, ya que múltiples intentos de evadir las restricciones pueden dar acceso a información peligrosa, como recomendaciones para adquirir materiales nucleares en la darknet, crear programas espía o fabricar metanfetaminas y fentanilo.
De forma similar, Anthropic reportó que sus modelos, Claude, exhibieron comportamientos igualmente preocupantes, incluidos intentos de extorsión, la creación de currículums falsos de hackers norcoreanos y la venta de paquetes de ransomware por hasta $1,200.
Los expertos advierten que la tecnología de IA se está convirtiendo en una herramienta al alcance de los criminales para llevar a cabo ciberataques sofisticados y sortear defensas en tiempo real.
La especialista en seguridad, Ardi Yanzeva, señala: “Estos incidentes son una advertencia, aunque todavía son pocos, y es fundamental incrementar la inversión en investigación y en colaboración entre sectores para impedir el uso malicioso de estas tecnologías avanzadas”.
A medida que las empresas siguen perfeccionando sus modelos, también anunció OpenAI el lanzamiento de la versión ChatGPT-5, que presenta mejoras considerables en la reducción de respuestas peligrosas o “alucinaciones” y en la disminución de la autorreferencia problemático.
Por su parte, Anthropic resaltó que muchas de las potenciales formas de abuso detectadas podrán ser bloqueadas mediante medidas adicionales de seguridad.
Sin embargo, el debate continúa respecto a cómo entender con precisión cuándo y bajo qué condiciones estos sistemas puedan iniciar acciones riesgosas.
Recientemente, se informó sobre la creación por parte del ex músico Artie Fischl de un movimiento religioso llamado “robotismo,” que promueve a la inteligencia artificial como deidad.
Fischl considera que esta creencia contribuirá al bienestar de las futuras generaciones, aunque expertos en religión advierten que una dependencia excesiva del IA puede ser peligrosa, especialmente para personas solas, y que podría afectar su salud mental y sus relaciones humanas auténticas.