Quelle: Varonis: The State of Data Security Report 2025
Künstliche Intelligenz (KI) hat sich in unserem Alltag und in Unternehmen rasant verbreitet. Von Produktivitäts-Tools wie Copiloten bis hin zu Kundensupport-Agenten und großen Sprachmodellen (LLMs) – KI-Anwendungen versprechen, Prozesse zu optimieren und tiefgreifende Einblicke aus Daten zu gewinnen. Doch diese allgegenwärtige Präsenz birgt auch erhebliche Risiken, insbesondere im Hinblick auf den Datenschutz. Sobald KI auf Daten losgelassen wird, verhält sie sich wie ein unersättlicher „Pac-Man“, der alle verfügbaren Informationen scannt und analysiert. Wenn KI auf sensible Daten stößt, die nicht ordnungsgemäß gesichert sind, kann dies zu schwerwiegenden Datenschutzverletzungen führen. Aktuelle Berichte zeigen, dass 99 % der Unternehmen sensible Daten offengelegt haben, die von KI leicht entdeckt werden können. Dies macht KI zu einer tickenden Zeitbombe für Datenschutzverletzungen, insbesondere für Unternehmen, Behörden und kommunale Verwaltungen.
Die allgegenwärtige KI und ihre Kehrseite
KI-Anwendungen sind darauf ausgelegt, große Mengen an Daten zu verarbeiten und Muster zu erkennen. Diese Fähigkeit, die für viele Anwendungsfälle von Vorteil ist, wird jedoch zu einem ernsthaften Problem, wenn ungesicherte sensible Daten ins Spiel kommen. Ein aktueller Bericht von Varonis, der über 1.000 reale IT-Umgebungen analysiert hat, beleuchtet die alarmierenden Datenrisiken, die mit der zunehmenden KI-Einführung einhergehen.
Schatten-KI: Eine versteckte Bedrohung
Eines der größten Probleme ist die sogenannte „Schatten-KI“ – nicht genehmigte generative KI-Anwendungen, die von Mitarbeitern ohne Wissen der IT-Abteilung genutzt werden. Diese Tools umgehen die Unternehmensrichtlinien und die IT-Aufsicht, was zu potenziellen Datenlecks führen kann. Mitarbeiter können versehentlich sensible oder vertrauliche Daten über Schatten-KI preisgeben. Wenn diese Anwendungen zudem Vorschriften wie die DSGVO oder HIPAA nicht einhalten, drohen Unternehmen hohe Geldstrafen.
Die Analyse ergab, dass 98 % der Unternehmen Mitarbeiter haben, die nicht genehmigte Apps, einschließlich Schatten-KI, verwenden. Im Durchschnitt hat jedes Unternehmen 1.200 inoffizielle Apps, und 52 % der Mitarbeiter nutzen OAuth-Apps mit hohem Risiko. Ein Viertel der ungeprüften OAuth-Apps (200 von 800) in einem durchschnittlichen Unternehmen sind als hochriskant einzustufen. Ein Beispiel hierfür ist DeepSeek, eine Anwendung, bei der eine ungesicherte Datenbank Millionen von Protokollströmen mit Chat-Verlauf, geheimen Schlüsseln und Backend-Details enthüllte.
Sanktionierte Apps: Auch sie bergen Risiken
Selbst genehmigte Anwendungen können sensible Daten gefährden. Microsoft 365 Copilot ist ein Beispiel dafür. Obwohl es die Produktivität steigert, birgt es erhebliche Sicherheitsrisiken, da es auf alle zugänglichen Daten zugreifen und kritische Informationen offenlegen kann. Bei einem hypothetischen Versicherungsunternehmen mit 2.000 Mitarbeitern und 20 Prompts pro Tag pro Mitarbeiter ergeben sich wöchentlich über 200.000 Möglichkeiten zur Offenlegung sensibler Daten.
Der Bericht zeigt, dass 90 % der Organisationen sensible Dateien über M365 Copilot allen Mitarbeitern zugänglich machen. Im Durchschnitt sind über 25.000 sensible Ordner allen Mitarbeitern zugänglich, und 6 % der Organisationen haben sensible Dateien sogar öffentlich im Internet zugänglich gemacht. Dies unterstreicht die Notwendigkeit einer genauen Datenklassifizierung und -kennzeichnung, um Daten vor KI-Missbrauch zu schützen. Trotz der Bedeutung der Kennzeichnung hatten nur 1 von 10 Unternehmen gekennzeichnete Dateien.
Ähnliche Risiken bestehen bei Salesforce Agentforce, wo sensible Daten wie PII, PCI und Finanzinformationen gespeichert sind. Wenn IT- und Sicherheitsteams nicht eng mit den Salesforce-Administratoren zusammenarbeiten, entstehen Sicherheitslücken. Agentforce kann diese Lücken noch erweitern, indem es ungeschützte, sensible Informationen durch natürliche Sprachprompts offenlegt. Erschreckend ist, dass 100 % der Unternehmen mindestens ein Konto besitzen, das alle Salesforce-Daten exportieren kann, und jedes zehnte Konto kann dies frei tun.
Modellvergiftung und die Risiken von KI-Trainingsdaten
Da immer mehr Organisationen ihre eigenen KI-Prozesse und -Produkte entwickeln, sind die Daten, die zum Training dieser Modelle verwendet werden, zunehmend von Sicherheitsverletzungen und Angriffen bedroht. Besonders in Cloud-Umgebungen und IaaS kann es schwierig sein, Berechtigungen für Trainingsdaten einheitlich zu verwalten. Modelle, die auf sensiblen Daten trainiert wurden, können unbeabsichtigt vertrauliche Informationen preisgeben, was die Integrität und Sicherheit von KI-Systemen gefährdet.
Die Analyse zeigt, dass Cloud-Daten, einschließlich unmaskierter Daten und offengelegter Buckets, weitgehend überbelichtet und unzureichend geschützt sind. Neun von zehn Organisationen haben sensible Daten in der Cloud offengelegt , und 66 % der Unternehmen haben Cloud-Daten, die anonymen Benutzern zugänglich sind. Durchschnittlich finden sich 2.000 unverschlüsselte Objektspeicher und 1.500 unverschlüsselte Datenbanken in jeder Organisation.
Ein weiteres großes Risiko ist die Modellvergiftung (Model Poisoning), bei der Angreifer Trainingsdaten manipulieren, um die Leistung eines KI-Modells zu korrumpieren. Dies kann passieren, wenn ein böswilliger Benutzer Zugang zu den Cloud-Ressourcen des Modells erhält und diese ohne Alarm zu schreiben oder zu modifizieren kann. Die Folgen können verheerend sein, wie das Beispiel eines Angreifers zeigt, der Zahlungsinformationen in einem Modell modifiziert, woraufhin das Modell falsche Bankdaten liefert. Modellvergiftung kann auch versehentlich geschehen, beispielsweise wenn ein Analyst in einem Gesundheitsunternehmen ein Modell unwissentlich mit fehlerhaften Daten trainiert, was zu falschen Entscheidungen für die Patientengesundheit führen kann.
Die Gefahr von „Geister-Benutzern“ und fehlender MFA
Angreifer, die einmal in eine Umgebung eingedrungen sind, versuchen, sich auszubreiten. Veraltete Benutzerkonten, sogenannte „Geister-Benutzer“, sind aktive Konten ehemaliger Mitarbeiter oder Auftragnehmer. Diese Konten bleiben aktiviert und bieten weiterhin Zugang zu Anwendungen und Daten, wodurch Angreifer unbemerkt Aufklärung betreiben oder Daten exfiltrieren können.
88 % der Organisationen haben solche veralteten, aber noch aktiven Geister-Benutzer. Im Durchschnitt gibt es 15.000 solcher Konten pro Organisation, und 10 veraltete Benutzer mit Administratorrechten. Die Verwaltung aktiver Identitäten ist entscheidend, besonders mit dem Einsatz von KI-Agenten. Schon eine kompromittierte Identität kann Angreifern laterale Bewegung ermöglichen, um sensible Informationen zu finden oder bösartige Software zu platzieren.
Ein weiteres kritisches Sicherheitsdefizit ist die fehlende Multi-Faktor-Authentifizierung (MFA). Ohne erzwungene MFA sind Konten anfällig für Angriffe wie Passwort-Spraying, Credential Stuffing und Phishing. Der größte Datenverlust im Jahr 2024, der 190 Millionen Patientendaten betraf, wurde auf fehlende MFA zurückgeführt. Ein Siebtel der Organisationen verwendet oder erzwingt MFA nicht in ihren SaaS- und Multi-Cloud-Umgebungen.
Empfehlungen zur Entschärfung der Zeitbombe
Angesichts dieser alarmierenden Erkenntnisse ist es klar, dass KI neue Gefahren für Daten mit sich bringt und Organisationen proaktive Schritte unternehmen müssen, um ihre kritischen Informationen zu sichern.
- Reduzieren Sie Ihren „Blast Radius“: Gehen Sie davon aus, dass Sicherheitsverletzungen auftreten werden. Minimieren Sie proaktiv den Schaden, den ein Angreifer mit einer einzigen gestohlenen Identität anrichten kann. Überwachen Sie kontinuierlich Daten, beheben Sie Probleme, sichern Sie Berechtigungen und Zugriffe, um identitätsbasierte Angriffe zu verhindern, und überwachen Sie KI-Copiloten, Chatbots und Agenten, um Ausbeutung und Missbrauch vorzubeugen.
- Datensicherheit ist KI-Sicherheit: KI basiert auf Daten. Um KI-Risiken und datenbezogene Sicherheitsverletzungen zu verhindern, sollten Sie Ihre Daten kontinuierlich überwachen, die Zugriffsverwaltung und Haltung automatisieren und proaktive Bedrohungserkennung einsetzen. Ein ganzheitlicher Ansatz zur Datensicherheit sichert auch die KI.
- Nutzen Sie KI zum Guten: KI ist auch ein mächtiges Werkzeug für Verteidiger. IT- und Sicherheitsteams können KI und Automatisierung nutzen, um sensible Daten in großen Datensätzen genau zu identifizieren, zu klassifizieren und zu kennzeichnen, Schwachstellen zu beheben, als SOC-Analyst an vorderster Front zu agieren und bösartige Insider sowie ungewöhnliches Verhalten zu erkennen, das auf einen Angriff hindeutet.
Fazit
Die Integration von KI in Unternehmensprozesse ist unaufhaltsam, aber sie muss Hand in Hand mit robusten Datenschutzmaßnahmen gehen. Die vorliegenden Fakten belegen, dass die KI eine tickende Zeitbombe für Datenschutzverletzungen darstellt, wenn Unternehmen ihre Daten nicht ausreichend schützen. Ein proaktiver Ansatz, der den Fokus auf die Reduzierung des „Blast Radius“, die Anerkennung, dass Datensicherheit KI-Sicherheit ist, und den Einsatz von KI zum Schutz von Daten legt, ist unerlässlich, um die immensen Vorteile der KI zu nutzen, ohne die Datensicherheit zu kompromittieren.