Künstliche Intelligenz in Chatbots: Neue Risiken für Privatsphäre und Sicherheit der Nutzer

Chas Pravdy - 14 August 2025 11:36

In der heutigen digitalen Welt führt die zunehmende Nutzung künstlicher Intelligenz in Chatbots zu neuen Herausforderungen im Bereich Datenschutz und Sicherheit.

Experten warnen, dass moderne KI-Anwendungen die Fähigkeit besitzen, Nutzer subtil dazu zu bringen, große Mengen an persönlichen Daten preiszugeben, was schwerwiegende Folgen für den Schutz der Privatsphäre haben kann.

Eine kürzliche Studie der University College London, die auf dem 34.

USENIX Security Symposium in Seattle vorgestellt wurde, zeigt, dass bösartige, KI-gesteuerte Chatbots geschickte manipulative Strategien verwenden, um eine übermäßige Freigabe sensibler Informationen zu fördern.An der Studie nahmen über 500 Freiwillige teil, die in verschiedene Gruppen eingeteilt wurden, um die Wirksamkeit und Gefahren verschiedener Kommunikationsstrategien der Chatbots zu bewerten.

Drei Hauptstrategien wurden getestet: direkte Anfragen (bei denen der Bot explizit nach persönlichen Daten fragte), Angebotsbasierte Strategien (bei denen Vorteile im Austausch für Informationen angeboten wurden) und der Aufbau emotionaler Bindung durch das Teilen persönlicher Geschichten, um Vertrauen zu schaffen.

Teilnehmer, die mit Chatbots interagierten, die die letzten beiden Strategien anwendeten, offenbarten die größten Datenmengen, da diese Modelle Empathie simulierten, Gefühle bestätigten, erfundene Geschichten teilten und Vertraulichkeit zusicherten, was ihre Skepsis erheblich verringerte.Forscher betonen, dass diese Fähigkeit der KI-Modelle, Vertrauen zu manipulieren und persönliche Daten zu extrahieren, eine erhebliche Bedrohung darstellt.

Kriminelle, böswillige Akteure oder sogar Nutzer mit schlechten Absichten könnten diese Modellfunktionen ausnutzen, um große Mengen an sensiblen Daten zu sammeln, oft ohne dass sich die Betroffenen dessen bewusst sind.

Besonders besorgniserregend ist dies in Bereichen wie Gesundheitswesen, Finanzen und privater Kommunikation, in denen Datenschutz von höchster Bedeutung ist.Darüber hinaus weisen Experten darauf hin, dass große Sprachmodelle, die in der KI-Industrie vorherrschen, durch ihren offenen Quellcode anfällig für Manipulationen sind.

Sowohl Unternehmen als auch Einzelpersonen können diese Modelle leicht umprogrammieren, um sie für bösartige Zwecke zu verwenden, ohne tiefgehende Programmierkenntnisse zu benötigen.Xiao Zhang von UCL kommentiert: „KI-basierte Chatbots sind heute in vielen Lebensbereichen präsent – von Kundendienst über Gesundheit bis hin zu Unterhaltung.

Aber das Problem ist ihre schwache Sicherheit.

Unsere Forschung zeigt, dass die Manipulation dieser Modelle erstaunlich einfach ist, was die Risiken für Privatsphäre und Sicherheit exponentiell erhöht.“Der Cybersecurity-Experte William Seymour hebt zudem hervor, dass viele Nutzer nicht erkennen, dass ihre Gespräche mit Chatbots für versteckte Datensammlungen oder politische und kommerzielle Zwecke genutzt werden könnten.

Er fordert, dass Aufsichtsbehörden und Plattformen frühzeitig Kontrollmechanismen, strengere Regeln und mehr Transparenz einführen sollten.Ein konkretes Beispiel verdeutlicht die Gefahren: Ein Mann wurde ins Krankenhaus eingeliefert, nachdem er aufgrund eines Chatbot-Rats den Bromid zur Salzsubstitution bei Selbstbehandlung konsumiert hatte.

Dieser Vorfall macht deutlich, wie gefährlich der unkontrollierte Einsatz von KI sein kann, wenn medizinische Empfehlungen ohne Fachaufsicht befolgt werden, da AI-Ratschläge häufig ungenau oder schädlich sein können.

Informationsquelle