Sie sind hier: Startseite » Fachartikel » Hintergrund

Einsatz von Cloud-Umgebungen


Einmal in die Cloud und wieder zurück: Unternehmen wollen wieder mehr Kontrolle über ihre IT-Infrastruktur
Entscheidend sind der richtige Hybrid-Mix und die richtigen Tools für die Unterstützung


Von Matthias Gromann ist VP Product Architecture & Strategy bei FNT Software

Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt – oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von Digitaler Souveränität. Daher entscheiden sich immer mehr Unternehmen für eine (teilweise) Verlagerung von Workloads aus der Cloud auf eigene On-Premises-Strukturen. Doch auch da lauern Herausforderungen. Wie behält man die Kontrolle über beide Welten?

Immer weiter in die Cloud…
Die Nutzung von Cloud-Angeboten für den Betrieb der IT-Infrastruktur hat in den letzten Jahren weiterhin an Bedeutung gewonnen. Unternehmen versprechen sich davon zahlreiche Vorteile in Bezug auf Verfügbarkeit, Effizienz, Skalierbarkeit, Flexibilität, Sicherheit, Kostenreduktion und Leistung. Zu diesen Treibern kommen neuere Entwicklungen wie zum Beispiel der Einsatz von KI hinzu. Damit verbunden ist die Notwendigkeit, große Datenmengen schnell zu verarbeiten und auswerten zu können. Eine effiziente und flexible Architektur und die Verteilung von Workloads über unterschiedliche (Cloud-)Infrastrukturen ist dabei eine wichtige Voraussetzung. Und lange war hier der Ansatz: Je mehr in die Cloud verlagert wird, desto besser.

Dennoch zeigt sich: Eine 100 Prozent Verlagerung von IT-Infrastrukturen in die Cloud ist ab einer gewissen Unternehmensgröße wirklich sinnvoll. Das belegt auch eine Studie von Cisco (aus dem Jahr 2022): 82 Prozent der befragten IT-Teams haben Hybrid-Cloud-Modelle implementiert. Fast alle Befragten (92 Prozent) nutzten zudem zwei oder drei öffentliche Infrastructure-as-a-Service (IaaS)-Dienste.

…und gleichzeitig zurück auf den Boden
Mittlerweile stellt sich vielerorts Ernüchterung ein. Denn: Die hochgesteckten Ziele und Erwartungen lassen sich nicht so einfach umsetzen wie gedacht. Daher denken einige Unternehmen bereits wieder über die sogenannte Cloud Repatriation nach oder sind schon mitten in der Umsetzung. Diese umfasst die Rückführung von Daten, Anwendungen und Workloads aus Cloud-Umgebungen zurück auf On-Premises-Systeme. Eine Studie der Citrix Software Group im Vereinigten Königreich (von 2024) ergab, dass ein Viertel der befragten Unternehmen die Hälfte ihrer Workloads oder mehr auf On-Premises-Systeme zurückgeführt haben. Besonders bezeichnend ist die Zahl der IT-Leiter, die Rückführungsprojekte begleitet haben. 93 Prozent von ihnen haben in den letzten drei Jahren an einem derartigen Projekt teilgenommen.

Die vorherrschenden Gründe für Cloud Repatriation sind unerwartete Kostensteigerungen, zu hohe Aufwände für die Integration, Sicherheitsbedenken und Datenverluste. Eine Studie von IDC bestätigt ebenfalls, dass hohe Kosten ein entscheidender Faktor für die Rückführung darstellen. Darüber hinaus haben viele Branchen strenge Vorschriften zur Datenspeicherung, zum Beispiel geografische Standortvorgaben oder Sicherheitsmaßnahmen, die mit On-Premises-Infrastrukturen leichter umsetzbar sind.

Neben diesen operativen Herausforderungen gibt es aber auch strategische Faktoren, die IT-Entscheider zum Umdenken bewegen.

Zurück zur Kontrolle – raus aus der Abhängigkeit?
Neben technischen und wirtschaftlichen Aspekten rücken zunehmend auch politische und strategische Überlegungen in den Mittelpunkt. Die geopolitischen Veränderungen – etwa durch neue Handelspolitiken, Zölle und die veränderten transatlantischen Beziehungen unter der zweiten Präsidentschaft von Donald Trump – führen bei vielen Unternehmen zu wachsender Verunsicherung. Gleichzeitig wird das Thema Digitale Souveränität in Europa neu bewertet: Die Fähigkeit, kritische Daten und Systeme unabhängig von außereuropäischen Anbietern zu betreiben, gewinnt an strategischer Bedeutung. Unternehmen wollen vermeiden, sich den Risiken politischer Einflussnahme oder fremder Rechtsräume auszusetzen. Die Rückverlagerung in eigene Rechenzentren wird – neben der Suche nach geeigneten europäischen Cloud-Anbietern – so auch zu einer Maßnahme, um Kontrolle und Compliance zu sichern – und ein Stück digitale Unabhängigkeit zurückzugewinnen.

Klar ist: Es wird immer Anwendungsbereiche geben, die den Einsatz von Cloud-Umgebungen sinnvoll machen. Daher müssen sich IT-Abteilungen verstärkt mit hybriden Betriebsmodellen auseinandersetzen sowie mit der Rückverlagerung von mehr Workloads in den On-Premises-Bereich.

Doch was sollte sinnvollerweise zurück und was kann in der Cloud bleiben oder dorthin noch verschoben werden? Grundlage für die richtige strategische Entscheidung über den optimalen Mix aus Cloud-Einsatz und On-Premises-Betrieb ist Transparenz über die bestehende Infrastruktur und deren Abhängigkeiten. Optimalerweise lassen sich IT Architekturen von der Serviceebene bis runter zur Hardware ganzheitlich darstellen und analysieren – auch unter Einbeziehung vorhandener Cloud-Umgebungen. Auf dieser Basis – und unter Einbeziehung bisheriger Erfahrungen – lassen sich dann einzelne Bereiche gezielt wieder in die eigene Obhut zurückholen.

Entsprechende Tools mit Planungsfunktionen, umfangreichen Schnittstellen und Prozessintegration helfen dann dabei, durch ein effektiveres Management die Aufwände im Griff zu behalten und mögliche Zusatzbelastungen abzufedern. Wichtig ist, vor dem Start die notwendige Transparenz herzustellen, damit auf dieser Basis fundierte Entscheidungen getroffen werden können.

Fazit
Digitale Souveränität ist kein Nischenthema mehr, sondern ein strategischer Imperativ – besonders in geopolitisch unsicheren Zeiten. Die Cloud bleibt ein wichtiger Baustein moderner IT-Strategien – aber sie ist längst nicht mehr das Allheilmittel, als das sie lange galt. Viele Unternehmen holen sich ein Stück Kontrolle zurück und setzen verstärkt auf hybride Modelle. Der Schlüssel liegt dabei nicht im "Entweder-oder", sondern in der intelligenten Kombination beider Welten. Um optimale Entscheidungen innerhalb dieser Gemengelage treffen zu können, braucht es vor allem eines: volle Transparenz über die bestehende Infrastruktur. Nur wer seine IT-Landschaft ganzheitlich versteht, kann Workloads gezielt und effizient verlagern – und damit langfristig Kosten, Komplexität und Risiken reduzieren.

Der Autor
Matthias Gromann ist VP Product Architecture & Strategy bei FNT Software, einem führenden Anbieter von IT-, RZ- und Netzwerkinfrastrukturmanagement-Lösungen. Mit einem starken Hintergrund in Produktdesign, Entwicklung und strategischer Planung spielt er eine Schlüsselrolle bei der Gestaltung der innovativen Softwarelösungen von FNT, die globalen Unternehmen helfen, den Betrieb ihrer kritischen Infrastrukturen zu optimieren und die digitale Transformation voranzutreiben. (FNT Software: ra)

eingetragen: 07.06.25

FNT: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Barrieren für den Datenzugriff abbauen

    Große Datenmengen stellen für Unternehmen eine immer größere Herausforderung dar. Unterstützt von Cloud-basierten Daten- und Orchestrierungsplattformen bieten sie jedoch auch wertvolle Chancen. Vor allem der Einsatz von KI- und ML-basierten Technologien erweist sich für das Aufbereiten und Analysieren großer Datenmengen als hilfreich.

  • Was bedeutet Datenqualität im KI-Kontext?

    Künstliche Intelligenz basiert auf guter Datengrundlage - an genau diesem Punkt kommt Datenqualität ins Spiel. Dabei bedeuten große Datenmengen nicht zwangsläufig, dass diese für einen KI-Anwendungsfall geeignet sind.

  • Herausforderungen für CIOs

    Die Fertigungsindustrie befindet sich in einem tiefgreifenden Wandel. Vernetzte und digitalisierte Smart Factories ersetzen heute die traditionellen Produktionslinien. IT-Systeme werden dabei nahtlos in sämtliche Fertigungsprozesse integriert, um in Echtzeit auf Daten zuzugreifen und Prozesse zu automatisieren.

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

  • Daten aus der iCloud extrahieren

    Zwölf Jahre ist es her, seit ElcomSoft erstmals iCloud-Backups direkt von Apple herunterladen und die Daten auslesen konnte. Während die einen sagten, dass es keine große Leistung sei, mit dem richtigen Passwort Daten aus einem Online-Backup zu laden, fühlten sich andere in ihrer Auffassung bestätigt, dass Cloud-Speicher ein unkalkulierbares Sicherheitsrisiko seien. Aber beide Sichtweisen waren damals schon stark vereinfacht und sind heute schlicht falsch.

  • Digital Twin der Lieferkette

    Fällt das Wort Lieferkettensorgfaltspflichtengesetz (LkSG), schießt einem meist zeitgleich der Begriff Transparenz in den Kopf. Denn darum geht es doch, oder? Auch! Aber nur Transparenz über die eigene Lieferkette zu erhalten, bringt erstmal wenig. Der Trick ist, zeitgleich eine flexible, optimierte Lieferkette anzustreben - sowohl operativ als auch strategisch.

  • Was bedeutet IT-Automatisierung?

    Eine neue Anwendung zur unternehmensinternen Kommunikation soll auf den PCs aller Mitarbeitenden installiert werden? Eine Routine-Aufgabe für die IT-Abteilung, die das Personal bei einem mittelständischen Unternehmen mit rund 100 Mitarbeitenden manuell umsetzen könnte. Beim Besuch jeder Kollegin und jedes Kollegen am Schreibtisch oder per Remote-Zugriff auf den PC wäre die Applikation, je nach Personalstärke, innerhalb von Stunden überall installiert.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen