Sie sind hier: Startseite » Markt » Tipps und Hinweise

Reale Gefahr: Totalausfall eines Cloud-Providers


Bewertung von Cloud-Providern – die wichtigsten Fragen vor der Partnerwahl
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich -Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann


Der mehrtägige Totalausfall eines Cloud-Providers zeigt, wie eng die IT von Firmen mit der Cloud verknüpft sind und wie wichtig die Wahl des richtigen Providers ist. Denn der Effekt der Datengravitation lässt schnelle und leichte Wechsel nicht zu. Je mehr Daten und Dienste ein Unternehmen eines bestimmten Providers nutzt, desto größer ist die Datenlast und desto langwieriger und träger die Migration zu alternativen Angeboten.

Daher lohnt es sich, vorab einige wichtige Punkte zu klären, bevor man sich ewig bindet: Denn der Wahn ist kurz, die Reu ist lang. Die folgenden Fragen helfen Unternehmen, die Cloud Computing-Angebote auf die wichtigsten Punkte zu prüfen, um eine zukunftssichere Wahl zu treffen:

1. Werden alle Workloads unterstützt?
Die Workloads spiegeln die Service-Leistung und Innovationskraft des jeweiligen Providers wider. Gerade bei Digitalisierungsvorhaben ist es entscheidend, dass der Provider bereits wichtige Eckdienste liefert und in seiner Roadmap moderne Module, wie Big Data oder IoT (Internet of Things) ankündigt. Denn der Cloud-Provider sollte der digitalen Transformation auf keinen Fall im Wege stehen.

Folgende wichtige Workloads sollten unterstützt werden:

>> Big Data:
Diese Servicemodule helfen, große Datenmengen schnell auszuwerten und mithilfe von Prognosemodellen neue Erkenntnisse aus den Daten zu gewinnen.

>> Open Source: Der Provider sollte idealerweise neben den kommerziellen auch eine Reihe von Open Source Plattformen einbinden können, damit ein Unternehmen die freie Wahl bei diesen hat. Insbesondere Plattformen wie MongoDB, OpenStack und auf Container basierte Umgebungen wie Docker oder Kubernetes sollten abgedeckt werden, um zukunftssicher zu sein.

>> Hyperkonvergente Infrastrukturen: Der Provider sollte hyperkonvergente Infrastrukturen unterstützen und dem Unternehmen das entsprechende Ankoppeln ermöglichen, damit kritische Daten und Anwendungen möglichst hochverfügbar und ausfallsicher arbeiten können.

>> Hybride traditionelle Anwendungen: Damit Firmen ihre älteren Anwendungen weiterhin betreiben können, sollte der Provider hybride Cloud-Konstellationen unterstützen.

2. Wie klug lassen sich Daten wiederherstellen?
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich. Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann. Daher sollten Firmen Daten in der Cloud prinzipiell selbst per Backup sichern: Hier lautet das Stichwort "Shared Responsibility".

Wie lassen sich im Ernstfall dann ganze Datenbestände oder nur wichtige Teile wiederherstellen? Der Provider sollte granulare Recovery-Prozesse mit unterstützen, damit ein Unternehmen beispielsweise eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation granular zurückholen kann, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Das spart viel Zeit und reduziert den Aufwand enorm. Es muss gewährleistet sein, dass die kritischen Anwendungen und Daten priorisiert rekonstruiert werden können, sodass wichtige Dienste nach einem Totalausfall schnell wieder verfügbar sind.

Damit in diesem Stressmoment möglichst alles reibungslos abläuft, sollten folgende Funktionen vom Cloud-Provider in der Business Continuity beziehungsweise in den Recovery-Plänen mit unterstützt werden:

Automatisierte und orchestrierte Wiederherstellung: So lassen sich ganze, komplexe Multi-Tier Anwendungen per Mausklick vollautomatisch wiederherstellen.

>> One-for-One-Orchestrationen: Hierbei muss ein IT-Verantwortlicher die Schritte mit minimalen Befehlen bestätigen, sodass er weiterhin die volle Kontrolle über den Prozess behält.

>> Testen des Wiederherstellungsplans: Es ist wichtig, diesen Disaster Recovery-Prozess, genauso wie mögliche Migrationsszenarien auf sichere Weise zu testen, ohne dass der Produktionsbetrieb davon beeinträchtigt wird.

>> Herstellerübergreifendes Konzept: Die Recovery-Mechanismen werden gegebenenfalls Anwendungen unterschiedlichster Art auf verschiedensten Plattformen wiederherstellen müssen. Daher ist es essenziell, herstellerübergreifende beziehungsweise unabhängige Disaster Recovery-Mechanismen zu wählen, die die Daten Ende-zu-Ende schützen können.

3. Wie lässt sich Speicherplatz sparen?
Viele Firmen nutzen bereits Deduplizierung in ihren eigenen Backup-Umgebungen, um die Größe der Backups so klein wie möglich zu halten und Speicherplatz zu sparen. Es wäre ideal, wenn der Cloud-Provider diese Form der Deduplizierung ebenfalls unterstützt. So lassen sich Speicher und Bandbreiten schonen, da die Gesamtmenge der zu speichernden Daten verkleinert wird. Eine Option ist es, dass eine Backup- und Recovery-Lösung diese Intelligenz unabhängig vom Cloud-Provider einbringt, sodass eine Multi-Cloud-Strategie ermöglicht wird.

Außerdem ist es wichtig, unterschiedlich performante Speicher anzubieten. Hochperformante, kritische Anwendungen sollten auf höheren, leistungsfähigeren Speichern laufen, während weniger wichtige Daten auf langsameren und günstigeren Storage-Diensten beim Provider abgelegt werden. Auch die Aktualität des Backups spielt bei dieser Bewertung eine Rolle.

4. Wie lässt sich der Überblick über die IT-Infrastruktur behalten?
Wer seine Daten in die Cloud migriert, wird sehr wahrscheinlich für lange Zeit eine hybride Infrastrukturarchitektur pflegen. Die Daten werden im Alltag auf all diese verschiedenen Plattformen verteilt, die untereinander gewisse Abhängigkeiten haben. Es ist wichtig, diese Abhängigkeiten zu verstehen und zu überblicken. Denn fällt eine Komponente aus, ist es möglicherweise notwendig, sofort entsprechende Gegenmaßnahmen einzuleiten. Daher ist es wichtig, die gesamte Infrastruktur, den Datenbestand und den Gesundheitszustand kontinuierlich zu überwachen.

Auf diese Weise lassen sich kritische Situationen, wie der Totalausfall eines Cloud-Providers, gut überbrücken, da Daten und Applikationen gesichert sind und im Idealfall per automatisiertem Disaster Recovery-Prozess alle kritischen Dienste auf die Cloud eines anderen Anbieters übertragen werden. So bleibt das Unglück in einem Rechenzentrum auch nur auf dieses beschränkt. (Veritas Technologies: ra)

eingetragen: 18.08.21
Newsletterlauf: 02.11.21

Veritas Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Existenzfrage: eine durchdachte Backup-Strategie

    Die Zahl der globalen Ransomware-Opfer ist um 70 Prozent gestiegen und 80 Prozent der Unternehmen waren in den letzten zwölf Monaten von mindestens einem Ransomware-Angriff betroffen. Social Engineering/BEC-Angriffe stiegen von 20 Prozent auf 25,6 Prozent im Vergleichszeitraum Januar-Mai 2025 zu 2024. Gleichzeitig werden SaaS-Plattformen zu immer attraktiveren Zielen für Cyberkriminelle, da sie in fast allen Unternehmen im Einsatz sind und oft als vermeintlich "sicher" eingestuft werden. Populäre Plattformen wie Microsoft 365, Google Workspace oder Salesforce sind dabei besonders im Fokus der Angreifer.

  • Lösung Multisession-Virtualisierung

    Globale Teams, heterogene IT-Landschaften und steigender Kostendruck: Moderne Unternehmen stehen vor enormen Herausforderungen. Besonders deutlich wird das beim Thema der digitalen Arbeitsplatzbereitstellung. Wie können Mitarbeitende weltweit flexibel, sicher und effizient arbeiten, ohne dass die IT-Abteilung an ihre Grenzen stößt?

  • Lösungsansatz: Mieten statt kaufen

    Wie schön wäre es, wenn IT, Soft- und Hardware einfach nur da wären und reibungslos funktionierten ? ohne, dass eine Heerschar an IT-Angestellten sich darum kümmern müsste. Gerade für KMU kann das IT-Management eine große Herausforderung darstellen: fehlendes qualifiziertes Personal, häufige Ausfälle, ungeplante größere Investitionen und Inkompatibilitäten zwischen neuer und bestehender IT. Wer da noch innovativ sein will oder muss, weiß bald nicht mehr, wie er das kostentechnisch und personell stemmen soll.

  • SEO bleibt - aber anders

    Nach Monaten des Wartens ist es so weit: Google rollt ihren neuen "AI Mode" auch in Deutschland aus. Nutzer können damit - ähnlich wie bei ChatGPT - direkt mit Google chatten und erhalten KI-generierte Antworten statt klassischer Suchergebnisse. Während einige Beobachter bereits vom Ende der herkömmlichen Google-Suche sprechen, sieht es Mare Hojc, Experte für GEO und KI-Sichtbarkeit in Chatbots wie ChatGPT, Perplexity und AI Overview und Gründer und CEO von AN Digital differenziert: "Der neue AI Mode ist revolutionär. Aber er wird sich nur langsam durchsetzen und die klassische Google-Suche wird nicht verschwinden. Es gibt durchaus Möglichkeiten, das eigene Unternehmen KI-ready zu machen."

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen