Die Kosten für VMware steigen. Die Übernahme durch Broadcom hat die Lizenzbedingungen verändert, und IT-Teams weltweit suchen nach Alternativen. SUSE Virtualization ist eine der Optionen, die ernsthafte Beachtung findet – und das aus gutem Grund. Es handelt sich um eine Open-Source-Plattform, die nativ für Kubernetes ist und virtuelle Maschinen und Container in einer einzigen Umgebung ausführt, anstatt die Verwaltung zweier separater Systeme zu erzwingen.
Dieser Leitfaden erklärt die Funktionsweise von SUSE Virtualization, ihre Details, ihren Einsatzort in Ihrer Infrastruktur und ihre praktischen Grenzen. Außerdem zeigen wir Ihnen, was Sie beim Schutz Ihrer Produktions-Workloads beachten sollten, sobald Sie SUSE Virtualization einsetzen.
Was ist SUSE-Virtualisierung und warum ist sie wichtig?
SUSE Virtualization ist eine Open-Source-Lösung, die nativ für Kubernetes ist. hyperkonvergente Infrastruktur Die HCI-Plattform (Human-Container Infrastructure) wurde entwickelt, um virtuelle Maschinen und Container parallel auf demselben Cluster auszuführen. Sie basiert von Grund auf auf Kubernetes, KubeVirt und KVM, wodurch Ihr Infrastrukturteam alles über eine einzige Steuerungsebene verwaltet, anstatt separate Tools für VMs und containerisierte Anwendungen einsetzen zu müssen.
Das Problem mit veralteten Hypervisoren
Jahrelang basierten die meisten Virtualisierungsstrategien in Unternehmen auf einem einzigen Anbieter. VMware dominierte den Hypervisor-Markt, und Teams bauten ganze Betriebsabläufe um vSphere, vCenter und vSAN herum auf. Dann übernahm Broadcom VMware, die Lizenzmodelle änderten sich, und die Kosten stiegen so stark an, dass viele Unternehmen unvorbereitet waren. Plötzlich wurde die Plattform, die als sichere Sache galt, zur finanziellen Belastung.
Herkömmliche Hypervisoren wurden vor der Existenz von Kubernetes entwickelt. Sie eignen sich gut für die Verwaltung von VMs, waren aber nie für die Orchestrierung von Containern ausgelegt. Unternehmen, die sowohl VMs als auch Container einsetzten, betrieben letztendlich zwei völlig getrennte Infrastruktur-Stacks mit jeweils eigenen Management-Tools, Netzwerkkonfigurationen, Speichersystemen und einem entsprechenden Betriebsaufwand. Das bedeutet, dass Ihr Team zwei Kompetenzbereiche pflegen, zwei Lizenzvereinbarungen aushandeln und zwei Ausfallbereiche überwachen muss. Für Teams, die bereits über Kubernetes nachdenken die mit der VM-Migration verbundenen RisikenDiese doppelte Belastung macht die Planung noch schwieriger.
Das Kernproblem herkömmlicher Hypervisoren sind nicht nur die steigenden Kosten. Es ist die architektonische Diskrepanz zwischen reinen VM-Plattformen und der containerbasierten Ausrichtung, die die meisten Unternehmen verfolgen.
Wie SUSE Virtualization VMs und Container zusammenführt
Anstatt VMs und Container getrennt zu behandeln, nutzt SUSE Virtualization Kubernetes als gemeinsame Orchestrierungsschicht für beide. Virtuelle Maschinen laufen über KubeVirt, das die Kubernetes-API erweitert, um den Lebenszyklus von VMs analog zur Pod-Verwaltung zu steuern. Container laufen nativ im selben Cluster: eine API, einheitliche Zugriffskontrollen, ein einheitliches Betriebsmodell.
Das ist wichtig, denn die meisten Unternehmen werden nicht von heute auf morgen alle bestehenden Workloads in Container migrieren. Datenbanken, Appliances und Standardsoftware benötigen weiterhin eine vollständige VM. SUSE Virtualization bietet Ihrem Team die Möglichkeit, diese Workloads auf einer einzigen Plattform zu konsolidieren, ohne eine aufwändige Neuentwicklung zu erzwingen. Sie können eine Windows Server VM direkt neben einem containerisierten Microservice betreiben und mit denselben Kubernetes-Tools verwalten, die Ihr DevOps-Team bereits kennt. Und wenn es um den Schutz dieser Workloads geht, ist eine solide Lösung unerlässlich. Backup-Strategie für virtuelle Maschinen Es wird wesentlich einfacher, wenn alles auf einer einzigen Plattform läuft.
Hinter den Kulissen: So funktioniert die Virtualisierung von SUSE
Lassen Sie uns die drei Kernschichten aufschlüsseln, die diese Plattform funktionsfähig machen: die Recheneinheit, die Speicherschicht und die Verwaltungsschnittstelle.
KVM, KubeVirt und die Kubernetes-Steuerungsebene
Auf der Rechenebene setzt SUSE Virtualization auf Kernel-based Virtual Machine (KVM), dieselbe Hypervisor-Technologie, die auch den meisten Linux-basierten Virtualisierungsumgebungen zugrunde liegt. KVM verwandelt jeden Bare-Metal-Knoten in einen Hypervisor, der vollständig isolierte virtuelle Maschinen mit nahezu nativer Leistung ausführen kann. Die Technologie ist praxiserprobt, Open Source und genießt bereits in Tausenden von Produktionsumgebungen großes Vertrauen.
Das ist wo KubeVirt KubeVirt ist ein Kubernetes-Add-on, das die Kubernetes-API erweitert und VMs so zu vollwertigen Ressourcen neben Pods macht. VMs werden wie alle anderen Kubernetes-Ressourcen über ein YAML-Manifest definiert. Kubernetes übernimmt anschließend die Planung, das Netzwerk und die Lebenszyklusverwaltung. Ihr Team muss keine komplett neuen Tools erlernen. Wer bereits mit kubectl und Helm arbeitet, kann VMs mit denselben Workflows verwalten.
Man kann es sich so einfach vorstellen: Kubernetes ist das Betriebssystem für Ihren Cluster, KVM ist die Engine, die jede virtuelle Maschine ausführt, und KubeVirt ist die Übersetzungsschicht, die es Kubernetes ermöglicht, „VM“ zu sprechen. Das Ergebnis ist eine einzige Steuerungsebene, die Container und virtuelle Maschinen auf denselben Knoten plant, die denselben RBAC-Richtlinien unterliegen und über denselben Observability-Stack überwacht werden.
Speicherung mit Longhorn und Unterstützung für CSI von Drittanbietern
Jede VM benötigt persistenten Speicher, und SUSE Virtualization wird mit diesem ausgeliefert. Longhorn Longhorn dient als Standard-Speicher-Backend. Es handelt sich um ein schlankes, verteiltes Block-Speichersystem, das speziell für Kubernetes entwickelt wurde. Es repliziert Daten zwischen Knoten, unterstützt Snapshots und übernimmt die Volumenverwaltung, ohne dass ein separates Speicher-Array erforderlich ist. Für kleinere Installationen oder Teams, die gerade erst anfangen, deckt Longhorn die Grundlagen gut ab.
Für Unternehmen mit bestehenden Speicherinvestitionen unterstützt SUSE Virtualization auch Container Storage Interface (CSI)-Treiber von Drittanbietern. Das bedeutet, dass Sie Speichersysteme von Anbietern wie Dell, NetApp oder HPE einbinden und deren Arrays als persistente Schicht für Ihre VMs und Container nutzen können. Sobald Sie produktive VMs in großem Umfang betreiben, ist eine solide Infrastruktur natürlich unerlässlich. Die Backup- und Wiederherstellungsstrategie für Ihre Kubernetes-Workloads wird genauso wichtig wie die Speicherschicht selbst.
Speicheroptionen in SUSE Virtualisierung
Hier ein Vergleich der beiden Speicheransätze anhand wichtiger Kriterien.
Merkmal | Longhorn (eingebaut) | CSI von Drittanbietern (Dell, NetApp, HPE usw.) |
Komplexität der Bereitstellung | Minimal: sofort einsatzbereit | Erfordert Treiberinstallation und Array-Konfiguration |
Leistungsgrenze | Abhängig von den lokalen Knotenfestplatten | Skaliert mit Enterprise-Array-Funktionen |
Replikation | Integrierte knotenübergreifende Replikation | Wird vom externen Array verarbeitet |
Optimale Bildschirmwahl | Kleine bis mittlere Implementierungen, Edge-Standorte | Großserienproduktion mit bestehender Lagerinfrastruktur |
Einheitliches Management mit SUSE Rancher
Der Betrieb eines einzelnen SUSE Virtualization-Clusters ist recht unkompliziert. Der Betrieb von fünf Clustern in verschiedenen Rechenzentren macht Rancher jedoch unerlässlich. Laut … offiziell SUSE VirtualisierungsdokumentationRancher integriert sich standardmäßig mit SUSE Virtualization, um virtuelle Maschinen und Container zentral zu verwalten, mit integrierter Unterstützung für Authentifizierungsanbieter und Mandantenfähigkeit durch RBAC.
Über das Dashboard von Rancher erhält Ihr Team eine zentrale Übersicht über alle notwendigen Schritte für den Betrieb clusterübergreifend:
- Mehrere SUSE Virtualisierungscluster in einer Ansicht importieren.
- Hosts und VM-Images in verschiedenen Umgebungen verwalten.
- Bereitstellung neuer Kubernetes-Cluster auf SUSE Virtualisierungsknoten.
- Mit detaillierten rollenbasierten Richtlinien lässt sich der Zugriff teamübergreifend steuern.
Es ist das operative Bindeglied, das einzelne Cluster zu einer überschaubaren Flotte verbindet, und genau das brauchen IT-Teams in Unternehmen, wenn sie auf eine neue Plattform umstellen.
Erfahren Sie, warum sich ein führender Anbieter in der Telekommunikationsbranche für Trilio als Backup-Lösung entschieden hat.
Wichtige Fähigkeiten, die IT-Teams kennen sollten
Das Verständnis der Architektur ist hilfreich, aber was für Ihr Team im Arbeitsalltag wirklich zählt, sind die operativen Fähigkeiten. Hier erfahren Sie, welche Vorteile SUSE Virtualization bietet, sobald es in Ihrer Umgebung läuft.
Live-Migration und VM-Lebenszyklusmanagement
Wenn Sie eine laufende VM nicht ohne Ausfallzeit von einem Knoten auf einen anderen verschieben können, sind Rolling Upgrades, Hardwarewartung und Kapazitätsanpassung nicht möglich. SUSE Virtualization unterstützt Live-Migration nativ über KubeVirt. Das bedeutet, Sie können einen Knoten evakuieren, patchen und wiederherstellen, während Workloads auf benachbarten Hosts weiterlaufen. Die Benutzererfahrung ist vergleichbar mit der von vMotion, nur dass die Migration über Kubernetes-Funktionen statt über vCenter erfolgt.
Über die Migration hinaus wird der gesamte VM-Lebenszyklus über Standard-Kubernetes-Ressourcen verwaltet. Das Erstellen, Starten, Stoppen, Klonen und Löschen von VMs erfolgt über die API oder die Harvester-Benutzeroberfläche. Ihr Team kann VM-Konfigurationen als Vorlagen erstellen, diese in Git versionieren und über CI/CD-Pipelines bereitstellen. Dies ist ein deutlicher operativer Vorteil gegenüber herkömmlichen Hypervisor-Konsolen, die sich nicht für die Automatisierung eignen.
Snapshots, Backups und Datenschutzlücken
SUSE Virtualization bietet Volume-Snapshots und grundlegende VM-Backups über Longhorn. Sie können vor einem Wartungsfenster einen Snapshot erstellen und diesen bei Problemen wiederherstellen. Dies ist für Entwicklungs-/Testumgebungen oder Einzelcluster-Setups völlig ausreichend.
Integrierte Snapshots sind keine Strategie zur Notfallwiederherstellung: Sie befinden sich üblicherweise auf demselben Speichermedium wie die Originaldaten, ermöglichen keine clusterübergreifende oder externe Wiederherstellung und bieten nicht die von Datenbanken geforderten Konsistenzgarantien auf Anwendungsebene. Befindet sich Ihre MySQL-Instanz mitten in einer Transaktion, wenn ein Snapshot erstellt wird, kann die Wiederherstellung zu einem beschädigten Zustand führen.
Diese Diskrepanz zwischen „Wir haben Snapshots“ und „Wir haben tatsächlichen Datenschutz“ ist eine der häufigsten Fehlkalkulationen, die Teams bei der Einführung von Kubernetes-basierter Virtualisierung begehen.
Snapshots bieten ein Sicherheitsnetz für schnelle Rollbacks. Sie bieten jedoch keine Notfallwiederherstellung, externe Kopien oder anwendungskonsistente Backups. Die Verwechslung dieser beiden Aspekte führt dazu, dass Produktionsvorfälle zu Datenverlusten führen.
Für wen ist SUSE Virtualization entwickelt worden?
Nicht jede Organisation benötigt diese Plattform, aber diejenigen, die sie brauchen, weisen in der Regel ein ähnliches Profil auf. Hier ist ein praktischer Bewertungsprozess, der Ihnen hilft, zu beurteilen, ob SUSE Virtualization für Ihre Situation geeignet ist:
- Überprüfen Sie Ihre aktuellen Hypervisor-Kosten und -Verträge: Wenn die Preise für die Vertragsverlängerung deutlich gestiegen sind oder Sie an eine CPU-basierte Lizenzierung gebunden sind, die nicht skalierbar ist, haben Sie einen finanziellen Grund, Alternativen zu prüfen.
- Erstellen Sie eine Bestandsaufnahme Ihrer Arbeitslastverteilung: Ermitteln Sie, wie viele Workloads als VMs und wie viele als Container ausgeführt werden. Wenn Sie beides betreiben und zwei separate Infrastruktur-Stacks pflegen, reduziert die Konsolidierung auf eine einzige Kubernetes-basierte Plattform den tatsächlichen Betriebsaufwand erheblich.
- Schätzen Sie den Kubernetes-Reifegrad Ihres Teams ein: SUSE Virtualization setzt Kenntnisse in kubectl, YAML-Manifesten und Kubernetes-Konzepten voraus. Wenn Ihr Infrastrukturteam bereits Kubernetes-Cluster verwaltet, ist der Lernaufwand überschaubar. Andernfalls sollten Sie Schulungszeit einplanen.
- Ermitteln Sie Ihre Datenschutzanforderungen: Ermitteln Sie Ihre RPO- und RTO-Ziele für jede Workload-Klasse. Wenn eine VM Produktionsdaten enthält, die eine externe Sicherung, anwendungskonsistente Snapshots oder … erfordern, … Bei clusterübergreifender Notfallwiederherstellung sollten Sie von Anfang an eine dedizierte Backup-Lösung einplanen.
- Führen Sie zunächst einen Machbarkeitsnachweis mit nicht kritischen Arbeitslasten durch: Migrieren Sie eine Handvoll Test-VMs, überprüfen Sie die Netzwerk- und Speicherleistung und stellen Sie sicher, dass Ihre vorhandenen Überwachungstools integriert werden, bevor Sie Produktions-Workloads übertragen.
Schutz von SUSE-Virtualisierungs-Workloads in der Produktion
Warum integrierte Schnappschüsse nicht ausreichen
Longhorn-Snapshots und die in SUSE Virtualization integrierte grundlegende VM-Backup-Funktion decken einfache Rollback-Szenarien ab. Sie eignen sich, um eine fehlerhafte Konfigurationsänderung rückgängig zu machen oder eine Testumgebung wiederherzustellen. In einigen kritischen Bereichen, die für Produktionsumgebungen erforderlich sind, stoßen sie jedoch an ihre Grenzen.
Snapshots, die im selben Cluster wie die Originaldaten gespeichert werden, schützen nicht vor Knotenausfällen, Speicherbeschädigungen oder Systemausfällen. Zudem fehlt ihnen die anwendungsbezogene Konsistenz, sodass eine Datenbank während eines Schreibvorgangs nach der Wiederherstellung beschädigt sein kann. Es gibt außerdem keinen integrierten Mechanismus für die Planung automatisierter Backups auf externen Zielen, die Durchsetzung von Aufbewahrungsrichtlinien oder die clusterübergreifende Wiederherstellung.
Wie Trilio für Kubernetes die Lücke schließt
Genau das ist das Problem Trilio für Kubernetes wurde entwickelt, um dieses Problem zu lösen. Anstatt Backup als nachträglich hinzugefügtes Element eines Allzweckwerkzeugs zu behandeln, bietet Trilio einen anwendungszentrierten Datenschutz, der speziell für Kubernetes-native Umgebungen, einschließlich SUSE Virtualization, entwickelt wurde.
Capability | Longhorn-Schnappschüsse (integriert) | Trilio für Kubernetes |
Anwendungskonsistente Backups | Nein (nur bei Absturzkonsistenz) | Ja: Pre-/Post-Hooks für MySQL, PostgreSQL, Redis und andere. |
Externe/Remote-Backup-Ziele | Wird nicht nativ unterstützt | S3-kompatibler Speicher, NFS und Cloud-native Backends |
Clusterübergreifende Wiederherstellung | Nein | Ja: Wiederherstellung auf einem komplett anderen Cluster |
Inkrementelle Backups | Nein | Ja: Reduziert den Speicherverbrauch und die Backup-Fenster |
Unveränderliche Backups (Schutz vor Ransomware) | Nein | Ja: Unterstützung für einmal beschreibbaren Speicher |
Richtliniengesteuerte Automatisierung | Manuelle oder einfache Terminplanung | Automatisierte Richtlinien mit Aufbewahrungsmanagement |
Trilio erfasst komplette Kubernetes-Anwendungen (persistente Volumes, Metadaten, Konfigurationen und Helm-Releases) als eine einzige wiederherstellbare Einheit. Das bedeutet, dass Sie bei der Wiederherstellung die vollständige Anwendung zurückerhalten und nicht nur ein Festplatten-Image, das Sie manuell zusammensetzen müssen. Die Integration erfolgt über native Kubernetes-APIs, sodass Ihr Team Backups genauso verwaltet wie alle anderen Cluster-Komponenten: über YAML, kubectl oder die Trilio-Benutzeroberfläche. Wenn Sie ähnliche Schutzstrategien für andere Virtualisierungsplattformen in Betracht ziehen, ist der Ansatz von Trilio für diese Plattformen besonders interessant. OpenShift Virtualisierungssicherung folgt dem gleichen anwendungsorientierten Modell.
Wenn Ihr Team eine produktive SUSE Virtualization-Bereitstellung mit zustandsbehafteten VMs plant, erspart Ihnen der Einbau von Datenschutz in die Architektur von Anfang an schmerzhafte Nachrüstungen im Nachhinein. Buchen Sie eine Demo um zu sehen, wie Trilio Backup und Wiederherstellung für Kubernetes-native Virtualisierungsumgebungen handhabt.
Automated Red Hat OpenShift-Datenschutz und intelligente Wiederherstellung
Führen Sie sichere anwendungszentrierte Backups von Containern, VMs, Helmen und Operatoren durch.
Verwenden Sie vorab erstellte Snapshots, um während der Wiederherstellung sofort zu testen, zu transformieren und wiederherzustellen
Skalieren Sie mit vollautomatischen, richtliniengesteuerten Backup- und Wiederherstellungs-Workflows
Erste Schritte mit der SUSE-Virtualisierung
SUSE Virtualization bietet IT-Teams eine realistische Open-Source-Alternative zur Abhängigkeit von herkömmlichen Hypervisoren, ohne dass ein vollständiger Umstieg auf Container über Nacht erforderlich ist. Es vereint VMs und Container auf einem einzigen Kubernetes-basierten Stack, wodurch der Betriebsaufwand reduziert wird und Infrastrukturteams eine Plattform erhalten, die sie nach ihren Bedürfnissen erweitern und automatisieren können. Die Plattform allein ist jedoch nur die halbe Miete. Zustandsbehaftete Workloads im Produktivbetrieb erfordern, dass Sie sich bereits vor dem ersten Vorfall Gedanken über den Datenschutz machen.
Ein guter Ausgangspunkt ist ein Proof of Concept mit nicht kritischen VMs. Testen Sie Ihre Annahmen zu Speicher und Netzwerk unter realen Bedingungen und definieren Sie Ihre Backup- und Wiederherstellungsanforderungen von Anfang an. Diese Vorbereitung ist entscheidend für einen reibungslosen Rollout und einen kostspieligen Neustart.
Häufig gestellte Fragen
Ist SUSE Virtualization ein direkter Ersatz für traditionelle Hypervisoren wie VMware?
Es kann VMware für viele Workloads ersetzen, verfolgt aber einen anderen Architekturansatz, indem es Kubernetes anstelle eines herkömmlichen Hypervisor-Management-Stacks als Orchestrierungsschicht nutzt. Teams sollten vor einer vollständigen Migration einen Proof of Concept mit repräsentativen Workloads durchführen, um die Funktionsgleichheit für ihre spezifischen Anwendungsfälle zu bestätigen.
Muss ich ein Kubernetes-Experte sein, um SUSE Virtualization nutzen zu können?
Sie müssen kein Experte sein, aber Ihr Team sollte mit grundlegenden Kubernetes-Konzepten wie YAML-Manifesten, kubectl und RBAC-Richtlinien vertraut sein. Organisationen ohne Kubernetes-Erfahrung sollten eine Lernphase einplanen und praktische Schulungen in Betracht ziehen, bevor sie Produktions-Workloads auf die Plattform verlagern.
Kann ich Windows- und Linux-VMs auf demselben Cluster ausführen?
Die Plattform unterstützt sowohl Windows- als auch Linux-VMs, die parallel zu containerisierten Workloads auf demselben Kubernetes-Cluster ausgeführt werden. Diese Flexibilität ist einer der Hauptgründe, warum Teams, die SUSE Virtualization evaluieren, es für gemischte Umgebungen mit Legacy-Anwendungen als praktisch empfinden.
Wie verhält sich die Speicherleistung im Vergleich zu Enterprise-SAN-Arrays?
Der integrierte Longhorn-Speicher eignet sich gut für kleine und mittlere Installationen, seine Leistung hängt jedoch von den lokalen Festplatten der Knoten und nicht von dedizierter Speicherhardware ab. Für Workloads, die einen höheren Durchsatz oder eine geringere Latenz erfordern, können Sie Enterprise-Speicherarrays von Anbietern wie Dell oder NetApp über CSI-Treiber integrieren.
Kann ich bestehende VMware-VMs zu SUSE Virtualization migrieren?
Ja, aber es erfordert Planung und ist kein einfaches Umziehen. Sie müssen die Festplattenformate der virtuellen Maschinen konvertieren und die Kompatibilität der Gastbetriebssysteme überprüfen, bevor Sie die Produktionslasten migrieren. Die meisten Teams beginnen mit nicht kritischen virtuellen Maschinen, um das Netzwerk- und Speicherverhalten auf der neuen Plattform zu validieren, bevor sie geschäftskritische Systeme anfassen.