Über Cloud-Dienste auf LLMs zugreifen


Die wachsende Bedrohung durch LLM-Jacking: Warnung vor neuen Cyberangriffsmethoden
Das Sysdig Threat Research Team (TRT) warnt vor einer alarmierenden Zunahme sogenannter LLM-Jacking-Angriffe. Dabei verschaffen sich Cyberkriminelle mit gestohlenen Cloud-Login-Daten illegal Zugang zu Large Language Models (LLMs)



Seit der Entdeckung des LLM-Jackings durch das Sysdig TRT haben die Angriffe stark zugenommen. Angreifer verwenden gestohlene Anmeldeinformationen, um Zugang zu teuren KI-Modellen zu erhalten und diese für eigene Zwecke zu nutzen. Dies kann die Opfer enorme Summen kosten, da moderne LLMs wie beispielsweise Claude 3 Opus bis zu 100.000 US-Dollar pro Tag an Nutzungsgebühren verursachen können.

Mit der fortschreitenden Entwicklung von LLMs und der steigenden Popularität dieser Modelle wächst auch die Kreativität der Cyberkrimineller, die zu immer raffinierteren Methoden greifen. Die Zahl der LLM-Jacking-Angriffe hat in den letzten Monaten einen besorgniserregenden Höhepunkt erreicht. Im Juli 2024 wurden innerhalb weniger Tage über 85.000 Bedrock-API-Anfragen von Angreifern registriert, die in kurzer Zeit enorme Mengen an Rechenressourcen verbrauchten. Diese Angriffe sind ein deutliches Zeichen für die zunehmende Professionalität der Angreifer, die moderne KI-Technologien zur Optimierung ihrer Aktivitäten einsetzen. Die Angreifer nutzen gestohlene Anmeldeinformationen, um über Cloud-Dienste auf LLMs zuzugreifen, was zu einem erheblichen Anstieg der Kosten für die betroffenen Unternehmen führt.

Besonders besorgniserregend ist der Missbrauch dieser KI-Modelle durch gesperrte Nutzer oder Institutionen in sanktionierten Ländern. Diese erwerben illegalen Zugang zu den Modellen auf dem Schwarzmarkt und umgehen so die bestehenden Sanktionen.

Die Bedrohung durch LLM-Jacking wird durch die Möglichkeit verschärft, dass Angreifer firmeneigene LLMs manipulieren und für ihre Zwecke missbrauchen können. Sysdig empfiehlt betroffenen Unternehmen daher, verstärkte Sicherheitsvorkehrungen zu treffen. Dazu gehören die Absicherung von Zugangsdaten und die Umsetzung von Sicherheitsrichtlinien wie dem Least-Privilege-Prinzip.

Unternehmen müssen ihre Cloud-Sicherheitssysteme kontinuierlich überwachen und auf verdächtige Aktivitäten achten, um der wachsenden Bedrohung durch LLM-Jacking einen Schritt voraus zu sein. (Sysdig: ra)

eingetragen: 29.11.24
Newsletterlauf: 08.01.25

Ampere: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Tipps und Background-Wissen

  • 178,6 Milliarden Euro Schaden durch Cyberattacken

    Das aktuelle Bundeslagebild Cybercrime 2024 des BKA zeigt ein ambivalentes Bild: Während die Zahl der angezeigten Ransomware-Angriffe leicht auf 950 Fälle zurückging, stiegen die Auslandstaten im Cyberbereich auf über 200.000 Fälle an. Mit 178,6 Milliarden Euro erreichten die durch Cyberattacken verursachten Schäden einen neuen Höchststand. Besonders besorgniserregend ist der zunehmende Einsatz von KI durch Cyberkriminelle, die damit Phishing-Kampagnen perfektionieren und Malware effizienter entwickeln.

  • Deepfakes sind längst kein reiner Hype mehr

    Trend Micro veröffentlichte einen neuen Bericht, der das Ausmaß und die Reife Deepfake-gestützter Cyberkriminalität beleuchtet. Mit zunehmender Leistungsfähigkeit, Verfügbarkeit und Erschwinglichkeit generativer KI-Tools setzen Cyberkriminelle diese Technologien verstärkt für Angriffe wie Betrug, Erpressung oder Identitätsdiebstahl ein.

  • Bausteine für eine Cybersicherheitsstrategie

    Mit wenigen fundamentalen Grundsätzen können Organisationen ihre Cyberresilienz in einer sich ständig ändernden Bedrohungslandschaft maßgeblich stärken. Knapp zwei Tage - so lange ist die durchschnittliche Dauer, die Cyberkriminelle benötigen, um eine Schwachstelle auszunutzen. Um mit diesen äußerst agilen Bedrohungsakteuren Schritt zu halten, bestimmen die heute getroffenen Entscheidungen die Fähigkeit eines Unternehmens, auf aktuelle und künftige Bedrohungen zu reagieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen