GenAI: Fortschritt oder Daten-GAU?
Künstliche Intelligenz (KI) hat in den letzten Jahren einen regelrechten Boom erlebt, insbesondere generative KI (GenAI), die Texte schreibt, Bilder erstellt oder Code generiert. Doch mit dieser Innovation kommen auch neue Sicherheitsrisiken – insbesondere im Bereich Datenschutz und Datenlecks. Doch wie genau entsteht ein Datenleck durch GenAI, und wie können Unternehmen und Nutzer sich schützen?
Wie kommt es zu Datenlecks durch GenAI?
GenAI-Modelle, darunter OpenAI’s ChatGPT oder Googles Gemini, werden mit riesigen Mengen an Daten trainiert. Diese Daten können aus verschiedensten Quellen stammen, darunter öffentliche Webseiten, Unternehmensdokumente oder Benutzereingaben. Die Hauptprobleme entstehen dabei auf mehreren Ebenen:
- Unkontrollierte Dateneingabe: Viele Unternehmen nutzen GenAI zur Optimierung interner Prozesse oder zur Kundenkommunikation. Doch oft werden sensible Daten eingegeben, ohne zu bedenken, dass diese Daten gespeichert oder weiterverarbeitet werden könnten.
- Unbeabsichtigte Datenfreigabe: Einige GenAI-Modelle können Informationen aus vergangenen Anfragen abrufen oder versehentlich Daten wiedergeben, die sie beim Training gelernt haben. Dies kann dazu führen, dass vertrauliche Informationen an unautorisierte Dritte gelangen.
- Prompt Injection und Datenabfluss: Angreifer können spezielle Prompts nutzen, um ein KI-Modell dazu zu bringen, interne Informationen oder Trainingsdaten offenzulegen. Dies ist besonders problematisch, wenn Unternehmen sensible Daten oder geschäftskritische Informationen mit GenAI verarbeiten.
- Fehlkonfiguration von KI-Tools: Unternehmen, die GenAI in ihre IT-Infrastruktur integrieren, müssen darauf achten, dass keine ungesicherten Schnittstellen (APIs) bestehen oder Zugriffskontrollen umgangen werden können.
Zahlen und Fakten: Wie groß ist das Risiko?
Eine Untersuchung von Pillar Security aus dem Jahr 2024 ergab, dass 90 Prozent der Angriffe auf große Sprachmodelle (LLMs) zu Datendiebstahl führten. Zudem konnten 20 Prozent der sogenannten “Jailbreak”-Versuche die eingebauten Schutzmechanismen der Modelle umgehen. Bemerkenswert ist dabei die Effizienz der Angreifer: Im Durchschnitt benötigten sie lediglich 42 Sekunden und fünf Interaktionen, um einen erfolgreichen Angriff durchzuführen.
Wenn Bots das Web übernehmen
Eine weitere Studie von Arkose Labs aus dem Jahr 2023 zeigte, dass 73 Prozent des gesamten Web- und App-Verkehrs bösartig waren, angetrieben von Bots und menschlichen Betrugsfarmen. Die Zahl der Angriffe durch Bots stieg in der ersten Jahreshälfte 2023 um 167 Prozent, wobei insbesondere intelligente Bots einen Anstieg von 291 Prozent verzeichneten. Diese Entwicklung wird unter anderem auf den Einsatz von GenAI-Tools zurückgeführt, die es Cyberkriminellen erleichtern, perfekt formulierte Phishing-E-Mails zu erstellen. Mehr zu diesem Thema findest du in unserem Blogbeitrag über Fraud und KI.
Wie können Unternehmen sich schützen?
Um Datenlecks durch GenAI zu verhindern, sollten Unternehmen klare Richtlinien für die Nutzung dieser Technologie aufstellen:
- Keine sensiblen Daten in KI-Tools eingeben: Mitarbeitende sollten geschult werden, welche Informationen in GenAI-Modelle eingegeben werden dürfen.
- Datenschutzfreundliche KI-Modelle nutzen: Open-Source-Modelle oder On-Premises-Lösungen können helfen, Daten innerhalb des Unternehmens zu halten.
- Regelmäßige Sicherheitsprüfungen durchführen: Unternehmen sollten ihre KI-Integrationen auf potenzielle Schwachstellen hin untersuchen.
- Zugriffsrechte begrenzen: Nur autorisierte Nutzer sollten Zugriff auf KI-Systeme haben, und alle Eingaben sollten protokolliert werden.
GenAI sicher nutzen – aber wie?
GenAI bietet enorme Möglichkeiten, birgt aber auch erhebliche Risiken. Wer diese Technologie nutzen will, muss sich der potenziellen Datenschutzprobleme bewusst sein und geeignete Schutzmaßnahmen ergreifen. Unternehmen, die hier proaktiv handeln, vermeiden nicht nur rechtliche Probleme, sondern auch potenzielle Reputationsschäden durch Datenlecks. Die Zukunft der KI liegt nicht nur in Innovation, sondern auch in Sicherheit.