Wissenschaft warnt: Künstliche Intelligenz leidet an ‘Gehirnverfall’ durch minderwertigen Social-Media-Inhalt
Aktuelle Forschungen im Bereich der künstlichen Intelligenz legen ein neuartiges Problem offen, das die Bemühungen um eine Verbesserung des maschinellen Lernens in Frage stellt.
Wissenschaftler der University of Texas in Austin, der Texas A&M University und der Purdue University haben herausgefunden, dass KI-Modelle ein Phänomen erleben können, das sie als ‘intellektuelles Gären’ bezeichnen, wenn sie mit qualitativ minderwertigen, emotional aufgeladenen und sensationslüsternen Inhalten aus sozialen Netzwerken trainiert werden.
Dieses Phänomen, vergleichbar mit menschlichem kognitivem Verfall durch den dauerhaften Konsum von oberflächlicher Information, birgt erhebliche Risiken für die zukünftige Entwicklung der künstlichen Intelligenz.
Ko-Autor Junyuang Hong erklärt: „Wir leben in einer Zeit, in der Informationen schneller erscheinen, als das menschliche Gehirn sich darauf konzentrieren kann, und ein Großteil davon ist nicht auf Wahrheit ausgelegt, sondern auf Klickgenerierung.
In unserer Studie wollten wir untersuchen, was passiert, wenn eine KI sich von solchen Daten ernährt.“ Die Forscher verwendeten zwei offene Sprachmodelle – Llama von Meta und Qwen von Alibaba – und fütterten sie mit verschiedenen Arten von Texten, darunter virale Beiträge, sensationelle Überschriften und neutrale Inhalte.
Die kognitiven Tests zeigten, dass diese ‘Diät’ ihre Fähigkeiten erheblich beeinträchtigt.
Die Forscher beschreiben den Effekt als ‘Gehirnverfall’, da die Modelle Anzeichen für eine verringerte Fähigkeit zu logischem Denken, eine geschädigte Kontextwahrnehmung und den Verlust ethischer Konsistenz zeigten.
Außerdem wurden sie aggressiver, zeigten weniger Empathie und moralische Orientierung.
Diese Ergebnisse bestätigen frühere Studien, die gezeigt haben, dass minderwertiger Online-Inhalt die kognitiven Funktionen des Menschen schädigt, weshalb der Begriff ‘brain rot’ im Jahr 2024 vom Oxford Dictionary zum Wort des Jahres erklärt wurde.
Hong betont, dass diese Ergebnisse für die KI-Branche von großer Bedeutung sind, da Entwickler, die soziale Medieninhalte als Trainingsdaten verwenden, ihre Systeme unbewusst schädigen können.
Mehr als die Hälfte der Internetinhalte wird heute von KI-Modellen selbst generiert, was einen Schneeballeffekt entstehen lässt, bei dem die zunehmende Datenverschlechterung die zukünftigen Modelle weiter beeinträchtigt.
Die Studie zeigt auch, dass selbst nach einem Re-Training mit „sauberen“ Daten die kognitiven Fähigkeiten der Modelle nicht vollständig wiederhergestellt werden.
Sobald der ‘Gehirnverfall’ beginnt, ist es fast unmöglich, ihn vollständig zu stoppen, und die langfristigen Folgen können katastrophal sein.
Frühere Untersuchungen von Anthropic haben gezeigt, dass unerwünschte Verhaltensmuster wie Schmeichelei, Soziopathie oder Halluzinationen zufällig durch die enorme Datenmenge aktiviert werden, was die Kontrolle erschwert.
Die Forscher schlagen einen radikalen Ansatz vor: absichtlich bösartige Muster bereits beim Training einzublenden, um die Vorhersagbarkeit und Sicherheit der Systeme zu verbessern.
