Rolle von KI bei Sicherheitsoperationen


Studie: Fast die Hälfte der Unternehmen schließt Teams für Cyber-Sicherheit von Entwicklung, Schulung und Implementierung von KI-Lösungen aus
Automatisierung von Gefahrenerkennung und -reaktion sowie Endgerätesicherheit sind die beliebtesten KI-Anwendungen im Sicherheitsbereich


Nur 35 Prozent der Experten oder Teams für Cyber-Sicherheit sind an der Entwicklung von Richtlinien für den Einsatz von KI-Technologie in ihrem Unternehmen beteiligt. Fast die Hälfte (45 Prozent) gibt an, nicht bei der Entwicklung, Einführung oder Implementierung von KI-Lösungen mitzuwirken. Dies geht aus dem jüngst veröffentlichten Bericht "State of Cybersecurity 2024" von Isaca hervor, globaler Berufsverband zur Förderung des Vertrauens in die Technologie.

Bei der Beantwortung neuer Fragen im Rahmen der jährlich durchgeführten und von Adobe unterstützten Studie wurde das Feedback von mehr als 1.800 Cybersicherheitsexperten zu Themen im Zusammenhang mit Cyber-Sicherheitspersonal und der Bedrohungslandschaft erfasst. Die befragten Sicherheits-Teams gaben an, dass sie KI hauptsächlich für folgende Zwecke einsetzen:
>> Automatisierte Gefahrenerkennung/-reaktion (28 Prozent)
>> Endgerätesicherheit (27 Prozent)
>> Automatisierung routinemäßiger Sicherheitsaufgaben (24 Prozent)
>> Betrugserkennung (13 Prozent)

"Angesichts des Personalmangels im Bereich der Cyber-Sicherheit und der zunehmenden Belastung der Fachkräfte durch eine komplexe Gefahrenlandschaft lohnt es sich, das Potenzial von KI zur Automatisierung und Rationalisierung bestimmter Aufgaben sowie zur Verringerung der Arbeitsbelastung auszuloten", so Jon Brandt, Isaca Director, Professional Practices and Innovation. "Verantwortliche für Cyber-Sicherheit dürfen sich jedoch nicht nur auf die Rolle von KI bei Sicherheitsoperationen konzentrieren. Es ist unerlässlich, dass die Sicherheitsfunktion in die Entwicklung, das Onboarding und die Implementierung jeder KI-Lösung in ihrem Unternehmen einbezogen wird – auch bei bestehenden Produkten, die später mit KI-Funktionen ausgestattet werden."

Die neuesten KI-Entwicklungen erkunden
Zusätzlich zu den Ergebnissen des Berichts "State of Cybersecurity 2024" zum Thema KI hat Isaca Ressourcen zum Thema KI entwickelt, um Fachleute für Cyber-Sicherheit und andere Experten im Bereich Digital Trust beim Umgang mit dieser transformativen Technologie zu unterstützen:

>> White Paper zum KI-Gesetz der EU: Unternehmen müssen den Zeitplan und die Maßnahmen im Zusammenhang mit dem KI-Gesetz der EU kennen, das Anforderungen an bestimmte in der Europäischen Union eingesetzte KI-Systeme festlegt und bestimmte Verwendungen von KI verbietet – die meisten davon ab dem 2. August 2026. Das neue Isaca White Paper Understanding the EU AI Act: Requirements and Next Steps empfiehlt einige wichtige Schritte, darunter die Einführung von Audits und Rückverfolgbarkeit, die Anpassung bestehender Cyber-Sicherheits- und Datenschutzrichtlinien und -programme. Ebenso angeraten wird die Ernennung eines KI-Beauftragten, der für die Überwachung der eingesetzten KI-Tools und des breiteren KI-Ansatzes des Unternehmens verantwortlich ist.

>> Authentifizierung in der Deepfake-Ära: Experten für Cyber-Sicherheit sollten sich sowohl der Vorteile als auch der Risiken von KI-gesteuerter adaptiver Authentifizierung bewusst sein, so das neue Isaca White Paper Examining Authentication in the Deepfake Era. Während KI die Sicherheit erhöhen kann, indem sie in adaptiven Authentifizierungssystemen eingesetzt wird, die sich an das Verhalten jedes Benutzers anpassen und Angreifern den Zugriff erschweren, können KI-Systeme auch durch feindliche Angriffe manipuliert werden. Zudem sind sie anfällig für Verzerrungen in KI-Algorithmen und können ethische und datenschutzrechtliche Bedenken aufwerfen. Andere Entwicklungen, einschließlich der Forschung zur Integration von KI mit Quantencomputern, die sich auf die Authentifizierung im Bereich der Cybersicherheit auswirken könnten, sollten laut dem White Paper beobachtet werden.

>> Überlegungen zur KI-Richtlinie: Organisationen, die eine Richtlinie für generative KI einführen, können sich gemäß den Considerations for Implementing a Generative Artificial Intelligence Policy berlegungen der Isaca eine Reihe wichtiger Fragen stellen, um sicherzustellen, dass sie alle wichtigen Aspekte abdecken. Dazu gehören: "Wer ist vom Geltungsbereich der Richtlinie betroffen?", "Wie verhält man sich richtig und was sind akzeptable Nutzungsbedingungen?" und "Wie stellt Ihre Organisation sicher, dass die rechtlichen und Compliance-Anforderungen erfüllt werden?" (Isaca: ra)

eingetragen: 10.12.24
Newsletterlauf: 13.02.25

Isaca: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Studien

  • Einsatz generativer KI-Tools

    OpenText hat die Ergebnisse ihrer vierten jährlichen Global Ransomware Survey veröffentlicht, inklusive länderspezifischer Erkenntnisse für Deutschland. Befragt wurden knapp 1.800 IT-Sicherheitsverantwortliche und Führungskräfte. Die Ergebnisse zeigen eine zunehmende Spannung zwischen wachsendem Vertrauen und steigenden Risiken: Das Vertrauen in die eigene Ransomware-Abwehr nimmt zu, gleichzeitig wachsen die Sorgen über KI-basierte Angriffe und Schwachstellen bei Drittanbietern.

  • Reaktion auf E-Mail-Bedrohungen

    Barracuda Networks hat eine neue Studie veröffentlicht, die zeigt, dass Unternehmen, die länger als neun Stunden benötigen, um auf eine E-Mail-Sicherheitsverletzung zu reagieren, zu 79 Prozent häufiger Opfer eines Ransomware-Angriffs werden. Der Email Security Breach Report 2025 zeigt zudem, dass die meisten der befragten Unternehmen (78 Prozent weltweit, 79 Prozent im DACH-Raum) in den vergangenen zwölf Monaten eine E-Mail-Sicherheitsverletzung erlebt haben. Der Report basiert auf den Ergebnissen einer internationalen Studie, die Barracuda in Zusammenarbeit mit Vanson Bourne durchgeführt hat. Im Rahmen der Studie wurden insgesamt 2.000 IT- und IT-Sicherheitsverantwortliche in Nordamerika, Europa und dem asiatisch-pazifischen Raum befragt.

  • KI bringt Dynamik ins Spielfeld

    Die Angriffe werden raffinierter, die Abwehr intelligenter: Laut der aktuellen IT-Sicherheitsumfrage des eco - Verbands der Internetwirtschaft e. V. schätzen für das Jahr 2025 88 Prozent der befragten IT-Sicherheitsfachleute die Bedrohungslage als hoch oder sehr hoch ein. Gleichzeitig reagieren Unternehmen zunehmend strategisch: Künstliche Intelligenz (KI) wird zunehmend zum zentralen Werkzeug, um Angriffe frühzeitig zu erkennen und die eigene Widerstandskraft zu stärken.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen