Bedrohungsakteure setzen auf KI


Anthropic-Bericht zeigt: KI-Chatbot wird für groß angelegte Cyberangriffe missbraucht
KI-Missbrauch wird zu einem wachsenden Sicherheitsrisiko


Von Dr. Martin J. Krämer, CISO Advisor bei KnowBe4

Kürzlich veröffentlichte Anthropic einen detaillierten Bericht darüber, wie die KI-Plattform des Anbieters von Cyberkriminellen missbraucht wurde. Die Ergebnisse zeigen, dass Angreifer KI nicht mehr nur für kleine unterstützende Aufgaben einsetzen, sondern nun ganze Angriffsoperationen automatisieren. Den Forschern zufolge nutzte ein krimineller Akteur den Chatbot Claude, um eine groß angelegte Hacking- und Erpressungskampagne durchzuführen, von der mindestens 17 Organisationen betroffen waren. Das KI-System unterstützte den Angreifer in jeder Phase der Angriffskette – von der Aufklärung und Malware-Entwicklung bis hin zur Datenexfiltration und einer Analyse zur Berechnung der geeigneten Höhe der Lösegeldforderung.

Der Bericht beschreibt, wie der Angreifer Claude in fast alle operativen Schritte integriert hat. Mithilfe des KI-Tools wurden Zugangsdaten gesammelt, Netzwerke infiltriert und gestohlene Daten für Erpressungszwecke vorbereitet. Zu den gestohlenen Informationen gehörten sensible Gesundheitsdaten, Finanzdaten und Zugangsdaten von Regierungsbehörden. In mehreren Fällen beliefen sich die Lösegeldforderungen auf über 500.000 US-Dollar. Die Geschwindigkeit und das Ausmaß dieser Angriffe wären ohne Automatisierung kaum möglich gewesen.

Auch staatlich geförderte Bedrohungsakteure setzen auf KI
Was den Bericht noch besorgniserregender macht, sind die Hinweise darauf, dass auch staatlich geförderte Gruppen mit KI-Tools experimentieren. Forscher beobachteten, dass eine chinesische Advanced Persistent Threat (APT)-Gruppe Claude zur Unterstützung einer Spionagekampagne gegen kritische Infrastrukturen in Vietnam einsetzte. Die Angreifer integrierten die KI als eine Art technischen Berater und Entwickler in 12 von 14 Taktiken, die im MITRE ATT&CK-Framework beschrieben sind. Mit dieser Unterstützung scheinen sie vietnamesische Telekommunikationsanbieter, Regierungsdatenbanken und landwirtschaftliche Systeme kompromittiert zu haben.

Ähnliche Muster wurden bei nordkoreanischen und russischen APTs festgestellt. Darüber hinaus nutzen auch Ransomware-Banden, Romance Scam-Betrüger und Malware-Entwickler KI-Tools, um ihre Angriffe zu optimieren. Dies zeigt, dass die Technologie nicht nur für hochqualifizierte staatliche Akteure attraktiv ist, sondern auch die Einstiegshürde für weniger erfahrene Cyberkriminelle senkt. Durch die Auslagerung zeitaufwändiger Aufgaben an KI können sie Operationen mit größerer Präzision und in kürzerer Zeit durchführen.

Anthropic hat die mit diesen Aktivitäten verbundenen Konten bereits gesperrt und arbeitet an Sicherheitsvorkehrungen, um weiteren Missbrauch zu verhindern. Die Forscher betonen jedoch, dass sich Organisationen auf einen langfristigen Trend einstellen sollten. Da KI-Modelle immer leistungsfähiger werden, werden Angreifer sie zunehmend nutzen, um ihre Kampagnen zu verfeinern. Dies gilt sowohl für klassische Cyberkriminalität – wie Ransomware oder Finanzbetrug – als auch für politisch motivierte Spionage. Die Folge: Das Volumen, die Geschwindigkeit und die Professionalisierung der Angriffe werden weiter zunehmen.

Risikoreduktion beginnt bei den Nutzern
KI-Chatbots spielen bei Cyberangriffen eine immer größere Rolle und werden zu einer zunehmend mächtigen Waffe im Arsenal der Cyberkriminellen. Was man dabei aber nicht vergessen darf: Ob KI-gestützt oder manuell durchgeführt – der Erfolg von auf Social Engineering und Phishing basierenden Angriffen ist davon abhängig, ob ein Nutzer innerhalb des Zielsystems hinters Licht geführt werden kann. Mitarbeiter, die sich der Risiken nicht bewusst sind, können leicht zum Einfallstor für KI-gestützte Angriffe werden.

Organisationen müssen daher nicht nur ihre technischen Abwehrmaßnahmen verstärken, sondern auch systematisch das von Mitarbeitern ausgehende Risiko reduzieren. Das Human Risk Management (HRM) bietet einen Rahmen, um diese Risiken strukturiert und kontinuierlich zu identifizieren, zu analysieren und zu reduzieren. Dazu gehören Schulungen zum Sicherheitsbewusstsein, realistische Phishing-Simulationen und der Einsatz von KI-gestützten Trainingsmethoden, die sich an die individuellen Schwächen der Mitarbeiter anpassen. Ziel ist es, sicherzustellen, dass Mitarbeiter keine Schwachstelle darstellen, sondern zu einer aktiven Verteidigungslinie gegen Cyber-Bedrohungen werden. (KnowBe4: ra)

eingetragen: 01.10.25

KnowBe4: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Cyber-Angriffe

  • Infrastruktur als Erfolgsfaktor für KI

    Die EU schreitet mit der Umsetzung des AI Act sowie einer umfassenderen Strategie zur Förderung und Bereitstellung von KI- und Cloud-Infrastrukturen in den Mitgliedstaaten voran. Doch Unternehmen stehen zunehmend unter Druck. Ihre Infrastrukturen müssen mit den wachsenden betrieblichen Anforderungen, geopolitischen Spannungen und erweiterten regulatorischen Vorgaben Schritt halten. Zwar will die EU damit die Wettbewerbsfähigkeit stärken und den administrativen Aufwand verringern, doch ihr Erfolg hängt maßgeblich davon ab, wie die angestrebte Harmonisierung in der Praxis umgesetzt wird.

  • Ohne moderne IGA-Lösung ein Flickenteppich

    Oft ist die Realität von Organisationen komplexer als es klassische Identitätsmodelle abbilden können. Dieselbe Person kann mehrere Rollen innerhalb einer Organisation parallel innehaben: etwa als Dozent und Alumni an einer Hochschule, als Manager und Kunde in einem Finanzinstitut oder als Mitarbeiter, der in geschäftigen Zeiten in einer anderen Abteilung aushilft. Auch Franchise- und Kooperationsmodelle bringen solche Konstellationen mit sich.

  • KI schreibt Regeln für Cyberrisiken neu

    Unternehmen auf der ganzen Welt setzen zunehmend auf Künstliche Intelligenz (KI), denn sie sorgt für teils erhebliche Effizienzsteigerungen. Gleichzeitig nutzen Hacker sie, um ihre Angriffe raffinierter zu gestalten, zu skalieren oder zu automatisieren. Infolgedessen steht die Cyber-Sicherheit vor einem Wendepunkt, an dem KI gegen KI kämpft. Die Phishing-Betrügereien und Deepfakes von heute sind nur die Vorboten einer kommenden Ära autonomer, sich selbst optimierender KI-Bedrohungsakteure. Das sind Systeme, die Angriffe ohne oder mit nur begrenzter menschlicher Aufsicht planen, ausführen und verfeinern können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen