La ciencia advierte: la inteligencia artificial sufre de ‘decaimiento cerebral’ por contenido de baja calidad en redes sociales
Investigaciones recientes en el campo de la inteligencia artificial revelan un problema emergente que cuestiona muchas de las estrategias empleadas para perfeccionar el aprendizaje de las máquinas.
Científicos de la Universidad de Texas en Austin, de la Universidad A&M de Texas y de Purdue descubrieron que los modelos de IA pueden experimentar un fenómeno denominado ‘decaimiento intelectual’, cuando son entrenados con contenido de baja calidad, cargado emocionalmente y sensacionalista que circula en redes sociales.
Este fenómeno, comparable al deterioro cognitivo humano ocasionado por el consumo constante de información superficial, plantea riesgos importantes para el futuro desarrollo de la inteligencia artificial.
El coautor del estudio, Junyuang Hong, explica: “Vivimos en una era en la que la información aparece a una velocidad superior a la capacidad de concentración del cerebro humano, y gran parte de ella no busca la verdad, sino generar clics.
En nuestro estudio, quisimos analizar qué sucede si la IA se alimenta de este tipo de contenidos”.
Los investigadores utilizaron dos modelos de lenguaje abiertos, Llama de Meta y Qwen de Alibaba, alimentándolos con diversos tipos de contenidos, incluyendo publicaciones virales, titulares sensacionalistas y material neutral.
Las pruebas cognitivas mostraron que esta ‘dieta’ perjudica sus habilidades, instalando un efecto que los investigadores llaman ‘decadencia cerebral’.
Los modelos mostraron un descenso en la capacidad de razonamiento lógico, una memoria contextual deteriorada y pérdida de coherencia ética.
Además, se observó que estas modelos se vuelven más ‘psicopáticas’, respondiendo con menos empatía y moralidad.
Estos hallazgos refuerzan estudios previos que evidencian cómo el contenido de mala calidad en línea destruye funciones cognitivas humanas, motivo por el cual el término ‘brain rot’ fue nombrado Palabra del Año 2024 por el diccionario Oxford.
Hong señala que los resultados son de gran importancia para la industria de la IA, ya que los desarrolladores que usan contenido de redes sociales para entrenar sus sistemas podrían estar dañando sus capacidades sin saberlo.
Más de la mitad del contenido en internet ahora es generado por modelos de IA, creando un efecto de bola de nieve donde la calidad en deterioro de los datos de entrenamiento afecta la habilidad de futuros modelos.
La investigación también revela que, incluso tras un proceso de reentrenamiento con datos ‘limpios’, las capacidades cognitivas de los modelos no se recuperan completamente.
Una vez que comienza la ‘decadencia cerebral’, es casi imposible detenerla, lo que plantea riesgos a largo plazo.
Investigaciones previas de Anthropic apuntan que patrones indeseados, como la adulación o las alucinaciones, suelen activarse aleatoriamente debido a la enorme cantidad de datos, lo que hace difícil su control.
Los científicos proponen un enfoque radical: introducir intencionalmente patrones ‘maliciosos’ durante la capacitación del sistema para mejorar su predictibilidad y seguridad.
