Sie sind hier: Startseite » Fachartikel » Hintergrund

Tape hat ausgedient, Public Cloud ist verzichtbar


Modernes Backup ohne Tape und Cloud ist möglich – Fast LTA erläutert alternativen Ansatz
Ein vollständiges und sicheres Backup sowie ein zuverlässiges und schnelles Restore sind die Grundlagen zum Schutz vor Datenverlust und den Folgen eines Cyberangriffs – Tape hat hier ausgedient und auch die Public Cloud ist verzichtbar


Von Roland Stritt, CRO bei Fast LTA

Zwei in der Datensicherung eingesetzte Technologien stehen derzeit bei vielen Unternehmen und Behörden auf dem Prüfstand. Bei Tape sind mit der Einführung von LTO-10 die Verbindungen zu Vorgängergenerationen komplett abgeschnitten worden, was eine vollständige Migration aller Systeme und Daten notwendig macht. Die Public Cloud entpuppt sich in vielen Fällen als wesentlich teurer als angenommen und zudem bestimmen rechtlichen Bedenken hinsichtlich Datenschutz und Datenhoheit die Diskussion.

Viele Mittelständler prüfen deshalb, ihre Datenbestände zurückzuholen, und sehen sich nach lokalen Alternativen für die Datensicherung um. Infolge der ständigen Bedrohung durch Cyberangriffe verschiebt sich zudem der Fokus vom Backup zum Recovery. Fast LTA, Spezialist für Zero Loss Sekundär- und Langzeit-Speichersysteme für sensible Daten, erläutert einen Ansatz, der ohne Tape und Cloud auskommt.

IDC untersuchte in ihrer Studie "The State of Disaster Recovery and Cyber-Recovery, 2024–2025: Factoring in AI" unter anderem die Gründe für Datenverlust. Auf die Frage, was dafür verantwortlich war, dass Daten nicht wiederhergestellt werden konnten, lag menschliches Versagen (46 Prozent) ganz vorn, gefolgt von Datenverlust zwischen zwei Backups (39 Prozent), beschädigten oder verschlüsselten Daten aufgrund von Malware/Ransomware (36 Prozent), verlorener oder beschädigter Tapes sowie dem Ausfall des Backup-Systems (jeweils 32 Prozent).

28 Prozent der Befragten gaben zudem in der Studie an, dass die Modernisierung des Backups zu ihren drei wichtigsten IT-Initiativen für die nächsten zwölf Monate gehört. Auf die Frage nach den wichtigsten Kriterien bei der Auswahl von Backup- und DR-Tools war die häufigste Antwort der Umfang der Lösung (30 Prozent), gefolgt von der Recovery-Geschwindigkeit (29 Prozent).

Für schnelles Recovery ausgerichtete Datensicherung
Die ersten beiden Instanzen eines modernen Backups sind für den schnellen und vollständigen Restore verantwortlich. Egal, ob Daten versehentlich gelöscht, durch falsche Synchronisierung ungewollt überschrieben, oder durch einen Angriff verschlüsselt oder gelöscht wurden: Eine schnelle und vollständige Wiederherstellung erfordert hohe Performance und Sicherheit für Tage, Wochen oder Monate an Daten.

Im primären Speicherziel liegt der Fokus auf Geschwindigkeit. Hier werden Daten der letzten Daten der letzten Wochen abgelegt – deren Verlust würde den Betrieb unmittelbar beeinträchtigen. Die Recovery Time Objective (RTO) legt fest, wie lange dies im Ernstfall dauern darf, währen die Recovery Point Obejctive (RPO) sich auf die maximal akzeptable Menge an Datenverlusten bezieht, die eine Anwendung erleiden kann, bevor ein messbarer Schaden für das Unternehmen entsteht.

In den meisten Fällen werden als primäres Speicherziel Flash-/NVMe-basierte Speicher eingesetzt, die für einen schnellen Restore, insbesondere beim Wiederherstellen aus beliebigen Incrementals oder Differentials, ausreichende Performance bereitstellen. Ein PCIe-basierter, hochleistungsfähiger Controller für NVMe-basierte Speicher bietet dafür die ideale Grundlage. Eine entsprechende Lösung mit dazu passenden Speichereinheiten umfasst beispielsweise je zwölf NVMe-Module, die zusammen 48 oder 96 TByte (brutto) bereitstellen und je nach Konfiguration bis zu sechs GB/s kontinuierlichen Datendurchsatz erlauben. In einem Controller mit acht Slots sind so bis zu 768 TByte auf zwei Höheneinheiten realisierbar.

Die zweite Instanz, das sekundäre Speicherziel, ist die eigentlich Basis-Sicherung, die meist einige Monate zurückreicht. Für definierte Wiederherstellungspunkte sorgen Full Backups (synthetisch oder aktiv) in regelmäßigen Abständen. Die großen Datenmengen liegen auf HDD-Arrays, die durch Redundanz vor Datenverlust durch Ausfall einzelner Festplatten schützen. Besonders wichtig ist es inzwischen, die Backups selbst vor den Folgen eines Angriffs zu schützen. Unveränderbarkeit sorgt hier für Schutz vor Datenmanipulation, beispielsweise Verschlüsselung, und Verlust, etwa durch Löschen infolge von Cyberangriffen.

Ein entsprechender Controller in dieser Beispielkonfiguration lässt sich extern mit bis zu 26 Speichereinheiten erweitern, die jeweils zwölf robuste SATA-Festplatten enthalten und Kapazitäten von bis zu 240 TByte (brutto) auf einer Höheneinheit bieten. Damit sind Konfigurationen mit über sechs PByte pro Controller realisierbar.

Auslagerung für den Extremfall
"Cyberangriffe zielen inzwischen primär auf Backups, um eine erfolgreiche Wiederherstellung nach einem Angriff zu verhindern. Ein Komplettausfall eines Speichersystems kann jedoch auch den Verlust kompletter Backups zur Folge haben. Deshalb ist es wichtig und in vielen Umgebungen auch vorgeschrieben, weitere Maßnahmen zum Schutz vor Datenverlust umzusetzen", meint Roland Stritt vom deutschen Anbieter Fast LTA.

Die Auslagerung von Daten – Stichwort Geo-Redundanz – gehört hier zu den bewährten Methoden. Dabei werden in regelmäßigen Abständen und über Monate oder Jahre hinweg vollständige, eigenständige Backups angelegt. Auch diese Backups müssen mittels Unveränderbarkeit vor den Folgen eines möglichen Angriffs geschützt sein.

Eine Art der Auslagerung ist das Überführen von Full Backups in eine separate Speicherinstanz, die auf einer anderen Technologie basiert. Hier haben sich S3-kompatible Objektspeicher als Quasi-Standard durchgesetzt. Ursprünglich für Cloud-Anwendungen entwickelt, bieten lokale S3-kompatible Speicher maximale Datensouveränität ohne die zusätzlichen Kosten, die bei Cloud-Speichern durch Datenübertragungen entstehen.

In einem NVMe-basierten Speichersystem kann ein S3-kompatibler Objektspeicher mit Unveränderbarkeit durch Object-Locking im selben System parallel betrieben werden. Auf einem derartigen schnellen Speichersystem lassen sich bei Bedarf Geschwindigkeiten bis zu einem GB/s erreichen. Physisch entnehmbare Speichermedien ermöglichen den sogenannten Air-Gap. Da keine Verbindung mehr zum eigentlichen Speichersystem besteht, besteht so höchste Sicherheit vor Kompromittierung. Das Medium selbst sollte ebenfalls vor Datenverlust, etwa durch Beschädigung, geschützt sein.

Optimierungen zur Kostenkontrolle
Die oben beschriebenen Methoden schützen Daten und Backups vor Manipulation und Verlust. In heutigen Umgebungen entstehen beim Backup jedoch häufig so große Datenmengen, dass vorgesehene Backup-Fenster oft nicht mehr eingehalten werden können. Noch dramatischer wirken sich steigende Datenmengen auf das Recovery aus. Im Falle eines Angriffs stellt die Ausfallzeit den größten Kostenfaktor dar. Ein schnelleres Recovery reduziert die durch einen Angriff anfallenden Kosten also erheblich.

Speziell für den Einsatz mit gängiger Software wie Veeam Backup & Recovery kommt eine besondere Technologie ins Spiel, die Backups deutlich kleiner und das Backup und Restore erheblich schneller macht: Fast Clone Support. Dabei werden im Primary und Secondary Target Vervielfachungen von Daten weitgehend vermieden. Bereits geschriebene Datenblöcke werden bei weiteren inkrementellen Sicherungen und Synthetic Fulls nur noch referenziert, was Fast keinen Speicherplatz und minimale Schreib-/Lese-Vorgänge erfordert. Je nach Anwendung können so Kapazität und Dauer für Backup und Wiederherstellung um 50 Prozent und mehr verringert werden.

"Noch effektiver für die Reduzierung von Kapazitätsbedarf und Dauer ist es, die Menge der zu sichernden Quelldaten zu reduzieren. Da in vielen Unternehmen große Datenmengen auf File-Servern liegen und sich nach der Nutzung gar nicht mehr oder nur noch selten verändern, würden diese Daten immer wieder unverändert gesichert werden und so das Backup unnötig vergrößern", so Roland Stritt.

Eine separate Sicherung von File-Servern auf einen sicheren Speicher bietet dabei gleich mehrere Vorteile. Da die Sicherung besonders einfach ist, mittels Replizierung der Inhalte auf den sicheren Speicher, lässt sich die Komplexität der Datensicherung deutlich reduzieren. Der Backup-Speicher lässt sich schlanker dimensionieren oder zum gleichen Preis mit höherem Anteil an Performance-Komponenten betreiben. Der vielleicht wichtigste Aspekt ist jedoch, dass im Falle eines Cyberangriffs Daten überhaupt nicht mehr wiederhergestellt werden müssen, um wieder nutzbar zu sein. Dies erfordert eine transparente Sicherung (1:1-Kopie) und einen hochsicheren Speicher. Hierzu sollte ein Speichersystem zur Verfügung stehen, das Daten mittels Hardware-WORM versiegelt und so zu 100 Prozent vor Manipulation und Löschen schützt.

Die Verantwortlichen in den Unternehmen sind sich bewusst, dass sie Backup-Lösungen benötigen, die gängige Datenwiederherstellungsszenarien wie menschliches Versagen oder Ransomware-Angriffe abdecken. Zudem sind umfassende Lösungen erforderlich, mit denen sie RTOs, RPOs und SLAs einhalten und eine schnelle Wiederherstellung mit minimalen Datenverlusten gewährleisten können. Tape als Speichermedium hat ausgedient, aber auch die Public Cloud ist verzichtbar, wie lokale S3-kompatible Objektspeicher zeigen. Entscheidend ist es, auf eine für schnelles Recovery ausgerichtete Datensicherung, Unveränderbarkeit sowie die Möglichkeiten der Geo-Redundanz und Datenreduzierung bei der Sicherung zu achten. (Fast LTA: ra)

eingetragen: 05.07.25

Fast LTA: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • KI-Nutzung am Edge

    Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann.

  • Einsatz von Cloud-Umgebungen

    Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt - oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von Digitaler Souveränität. Daher entscheiden sich immer mehr Unternehmen für eine (teilweise) Verlagerung von Workloads aus der Cloud auf eigene On-Premises-Strukturen. Doch auch da lauern Herausforderungen. Wie behält man die Kontrolle über beide Welten?

  • Unsicherheiten verändern die Cloud-Landschaft

    Die geopolitischen Entwicklungen der letzten Monate haben der Diskussion um digitale Souveränität neue Brisanz verliehen. Unmittelbar beobachten lässt sich eine zunehmende Nachfrage nach Alternativen zu US-amerikanischen Cloud-Diensten. Vielen Unternehmen ist bewusst geworden, dass ihre Abhängigkeit von Anbietern wie AWS, Azure oder Google Cloud ein Risiko darstellt, das weit über abstrakte Datenschutzbedenken hinausgeht.

  • Barrieren für den Datenzugriff abbauen

    Große Datenmengen stellen für Unternehmen eine immer größere Herausforderung dar. Unterstützt von Cloud-basierten Daten- und Orchestrierungsplattformen bieten sie jedoch auch wertvolle Chancen. Vor allem der Einsatz von KI- und ML-basierten Technologien erweist sich für das Aufbereiten und Analysieren großer Datenmengen als hilfreich.

  • Was bedeutet Datenqualität im KI-Kontext?

    Künstliche Intelligenz basiert auf guter Datengrundlage - an genau diesem Punkt kommt Datenqualität ins Spiel. Dabei bedeuten große Datenmengen nicht zwangsläufig, dass diese für einen KI-Anwendungsfall geeignet sind.

  • Herausforderungen für CIOs

    Die Fertigungsindustrie befindet sich in einem tiefgreifenden Wandel. Vernetzte und digitalisierte Smart Factories ersetzen heute die traditionellen Produktionslinien. IT-Systeme werden dabei nahtlos in sämtliche Fertigungsprozesse integriert, um in Echtzeit auf Daten zuzugreifen und Prozesse zu automatisieren.

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen