GenAI-Systeme wirksam schützen


GenAI sicher einsetzen: Drei zentrale Maßnahmen für Unternehmen
Ein verantwortungsvoller Einsatz von GenAI beginnt mit klaren Strukturen und Zuständigkeiten. Unternehmen sollten hierfür ein bereichsübergreifendes Team zusammenstellen, das Sicherheits-, Rechts-, Compliance- und IT-Perspektiven verbindet


Von Andreas Müller, Vice President Enterprise Sales CE bei Delinea

Die Geschwindigkeit, mit der sich GenAI heute entwickelt, birgt großes Potenzial für Unternehmen – aber auch Risiken. Wer Sicherheitslücken, Datenschutzverstöße und Schatten-IT vermeiden will, braucht einen ganzheitlichen Ansatz. Mit drei zentralen Maßnahmen können Unternehmen GenAI sicher und zukunftsfähig integrieren.

Die rasante Entwicklung von Generative AI (GenAI) verändert Branchen und Geschäftsprozesse tiefgreifend. Das Innovationspotenzial ist enorm – doch die schnelle Entwicklung birgt auch Risiken. Sicherheits- und Datenschutzverletzungen oder Compliance-Verstöße können schnell entstehen, wenn die Technologie unkontrolliert eingesetzt wird. Um das volle Potenzial sicher, verantwortungsvoll und ethisch auszuschöpfen, brauchen Unternehmen einen ganzheitlichen Ansatz, der Governance, Technologie und adaptive Sicherheitslösungen vereint. Hier sind drei Schritte, wie das gelingt:

1. Governance: Klare Regeln und Verantwortung
Ein verantwortungsvoller Einsatz von GenAI beginnt mit klaren Strukturen und Zuständigkeiten. Unternehmen sollten hierfür ein bereichsübergreifendes Team zusammenstellen, das Sicherheits-, Rechts-, Compliance- und IT-Perspektiven verbindet. Dieses Team sollte die Verantwortung für den Einsatz von GenAI-Lösungen im Unternehmen sowie die Einhaltung globaler Richtlinien – wie etwa der EU AI Act oder die OECD Leitlinien – tragen.

Ebenso wichtig ist ein klar definiertes ethisches Leitbild. Entscheidungen, die mithilfe von Künstlicher Intelligenz (KI) getroffen werden, müssen nachvollziehbar sein und stets überprüft werden. Das ist wichtig, um zum Beispiel algorithmischen Bias zu erkennen – insbesondere in Bereichen wie Recruiting, Finanzen oder im Gesundheitswesen. Zudem sollten Unternehmen regelmäßig prüfen, wie sich der eigene KI-Einsatz auf die Organisation, die Wirtschaft und Gesellschaft auswirkt.

Entscheidend ist zudem, dass auch Mitarbeitende kontinuierlich und auf allen Ebenen im Umgang mit KI geschult werden. So müssen Entwickler verstehen, wie sie KI-Systeme sicher und fair gestalten, während Anwender lernen müssen, kritisch mit Ergebnissen umzugehen.

2. Technologiekontrollen: Modelle, Daten und Systeme gezielt absichern
Um GenAI-Systeme wirksam zu schützen, müssen Unternehmen von Anfang an geeignete Sicherheitsmaßnahmen implementieren. Sie sollten alle Interaktionen mit KI sowie ihre Ergebnisse genau protokollieren, um verdächtiges Verhalten schnell zu erkennen und im Ernstfall gezielt eingreifen zu können. Lösungen wie Identity Threat Detection and Response (ITDR) helfen dabei, Angriffsversuche in Echtzeit aufzudecken. Gleichzeitig gilt es, Zugriffe auf Modelle und Trainingsdaten konsequent zu beschränken. Durch regelmäßige Audits, den Einsatz von Hashing-Verfahren und klar geregelte Zugriffsrechte behalten Unternehmen Kontrolle über die Integrität ihrer Daten.

Auch sogenannte Schatten-IT, also unautorisierte KI-Anwendungen im Unternehmen, erfordert aktives Handeln. Mit gezielten Endpoint- und Browserkontrollen sowie automatischer Tool-Erkennung können IT-Teams solche Anwendungen aufspüren und zentral kontrollieren, bevor Risiken entstehen.

3. Datenzugang und Datenkontrolle stärken
GenAI ist nur so sicher wie die Daten, mit denen sie arbeitet. Unternehmen sollten den Zugang daher konsequent absichern. Hierfür eignen sich beispielsweise zeitlich begrenzte Zugriffsrechte (Just-in-time) nach dem Least-Privilege Prinzip, Privileged Access Management (PAM) Lösungen zur Kontrolle besonders sensibler Berechtigungen und Multi-Faktor-Authentifizierung – sowohl für menschliche als auch maschinelle Identitäten. Trainingsdaten müssen besonders geschützt werden: Vertrauliche oder persönliche Informationen sollten entfernt oder pseudonymisiert werden. Mit einer einheitlichen Klassifizierung lassen sich Zugriffsrechte besser steuern. Verschlüsselung schützt die Daten zusätzlich beim Speichern oder Übertragen vor unbefugtem Zugriff.

Zudem sollten Unternehmen auch die Ein- und Ausgabedaten von GenAI-Systemen kontrollieren. Mithilfe von Echtzeitüberwachung lassen sich kritische oder regelwidrige Inhalte frühzeitig erkennen – zum Beispiel im Hinblick auf Datenschutz oder ethische Vorgaben. Gleichzeitig müssen auch die von der KI erzeugten Inhalte verschlüsselt, kategorisiert und nachvollziehbar dokumentiert werden.

Fazit
GenAI bietet heute enormes Potenzial – aber Unternehmen müssen sicherstellen, dass sie die Technologie kontrolliert und verantwortungsvoll einsetzen. Mit einem ganzheitlichen Sicherheitsansatz, der Governance, technische Kontrollen und Datenmanagement zusammenführt, lassen sich Risiken deutlich minimieren. So schaffen Unternehmen die nötige Vertrauensbasis, um ihren Umgang mit GenAI sicher, regelkonform und ethisch zu gestalten. (Delinea: ra)

eingetragen: 26.06.25

Delinea: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Tipps und Background-Wissen

  • Stärkere "wurmartige" Ausbreitung

    Als die erste Welle der Shai-Hulud-Kampagne im Jahr 2025 bekannt wurde, entwickelte sich der Vorfall rasch zu einem der schwerwiegendsten Angriffe im gesamten JavaScript-Ökosystem. Die Sicherheitsforscher von JFrog gehörten zu den ersten, die den Angriff umfassend analysierten und dabei aufdeckten, dass Hunderte von npm-Paketen kompromittiert worden waren. Ein selbstreplizierender Wurm stahl Zugangsdaten, erbeutete Cloud-Token und veröffentlichte manipulierte Paketversionen automatisiert erneut.

  • KI perfektioniert bewährte Angriffstaktiken

    Lange gab es keine Beweise zu KI-gesteuerten, autonomen Angriffen. Mit der ersten gemeldeten KI-orchestrierten Cyberspionagekampagne hat sich dies geändert. Das ThreatLabZ-Team von Zscaler erläutert, wie sich Sicherheitsverantwortliche gegen KI gesteuerte Angriffe wappnen können.

  • Cyberkriminalität bleibt weltweit disruptiv

    In ihrem jährlichen "Cybersecurity Forecast Report" beschreibt Google Cloud Security die kommenden Trends und Herausforderungen in der Cybersecurity. Dazu gehören 2026 KI-gestützte Bedrohungen sowie Cyberkriminelle, die Ransomware einsetzen und Organisationen mit gestohlenen Daten erpressen. Zudem werden die aktivsten staatlichen Bedrohungsakteure "Big Four" (Russland, Nordkorea, China und Iran) ihre Bemühungen intensivieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen