Stor IT Back - Ihr Speicherspezialist
Backup und Recovery V1.18 (c) Stor IT Back 2024
Viele Administratoren und Geschäftsführer stellen sich die Frage: Backup, brauche ich das wirklich, ich habe doch RAID?
Oder was brauche ich für ein Backup? Wie sichere ich in meiner
virtuellen Umgebung die Daten? Wie die Betriebssysteme?
Müssen Betriebssysteme überhaupt gesichert werden?
Woher weiß ich denn, ob sich mein Backup wirklich recovern lässt? Sind die Daten überhaupt lesbar?
Fangen wir vorne an: Wie schnell ist eine Festplatte defekt, gerade bei den aktuell extrem großen Festplatten kann auch ein RAID 5 / 6 oder RAID 1 nicht mehr ausreichend sein.
Das ein Server Feuer fängt oder unter Wasser gesetzt wird ist zwar nicht so häufiger der Fall. Dass ein Anwender irrtümlicherweise (oder gar absichtlich)
Daten löscht, kommt häufiger vor als man denkt. Und in diesen Fällen hilft das RAID nicht. Genauso bei Virenbefall oder dem Verschlüsselungstrojaner, die Daten
sind trotz RAID alle weg. Hinterher ist guter Rat teuer.
Was ist die Erklärung, warum der Ausfall der EDV sehr teuer für ein
Unternehmen ist?
Nehmen wir an, Ihr Kundenstamm ist weg, Sie wissen nicht mehr wer
was bestellt hat oder wer seine Rechnung nicht bezahlt hat. Die ersten Forderungen
der Lieferanten treffen ein, Sie wissen aber nicht mehr, an wen Sie die Ware
eigentlich ausliefern sollten. Dies wird mit Sicherheit einen ernsten Schaden
nach sich ziehen. Sie sagen, alles kein Problem, ich habe ja alles ausgedruckt,
eine Datensicherung ist nicht so wichtig für mich. Dann haben sie aber keine Vorlagen für Rechnungen, Lieferscheine oder ähnliches mehr. Alles
muss neu entworfen werden, die Buchhaltungsdaten müssen neu eingetippt
werden, umfangreiche Kalkulationen sind verloren, Fehler in Adressen, Bankverbindungen und Namen
schleichen sich ein, und so weiter. Und damit dauern die Vorgänge deutlich länger, Kunden springen ab, extremer Arbeitsaufwand, aber trotzdem unzufriedene Kunden.
Zusätzliche Kosten und mindestens ein Image-Verlust. Der Image-Verlust ist als Soft-Fakt schwerer zu bewerten.
Aber möchten Sie bei einem Unternehmen bestellen, welches Ihre Bestellung verloren hat und erst wieder Nachfragen muss?
Einige Beispiele für einen Desaster Fall finde Sie in der Einleitung. Es ist aber für die Business Continuity egal,
wie die Daten verloren gegangen sind, ob nun absichtliches Löschen, ein Virus oder Hardware-Ausfall. Auch ist es kein Thema
alleine für die EDV oder die IT-Abteilung. Das Management muss festlegen, wie im Desaster-Falle reagiert werden muss. Welche Prozesse
im Unternehmen sind wichtig und welche maximale Ausfallzeit kann toleriert werden. Diese Fragen kann ein Administrator meist nicht
mal ansatzweise beantworten und sollte es auch nicht, da das Haftungsrisiko beim Management liegt.
Welche Informationen braucht die EDV Abteilung für die Business Continuity?
1. Eine Abstufung der Prozesse im Unternehmen mit der Wichtigkeit.
2. Welche EDV-Anwendungen betreffen die einzelnen Prozesse.
3. Welche Ausfallzeiten für die einzelnen Prozesse im Unternehmen sind tolerierbar.
4. Gibt es Alternativen für wichtige Prozesse im Unternehmen.
Diese Fragen können im Rahmen einer Business Impact Analyse (BIA) bearbeitet werden. Sind die Fragen nach den Prozessen und der maximalen Ausfallzeiten
beantwortet, dann kann die EDV die entsprechenden Maßnahmen und Lösungen erarbeiten.
Wichtig ist auf jeden Fall, dass nicht alle Forderungen mit einem Backup abgedeckt werden können. Sind maximale Ausfallzeiten von wenigen Minuten
definiert worden, dann wird zum Beispiel eine Replikation mit SnapShots an einem zweiten Standort benötigt.
Die Anforderungen an ein zeitgemäßes Backup
haben sich grundlegend geändert. Heute spielen Onlinezeiten von 7 mal 24 Stunden
eine große Rolle, selbst bei vollständigen Serverausfällen müssen die Daten
innerhalb kürzester Zeit wieder verfügbar sein. Und viele Anwendungen und Daten befinden sich in
virtuellen Umgebungen, diese müssen mindestens genauso gut gesichert werden. Nach dem 11. September spielen
auch Auslagerungen und Duplizierungen der Backupdaten über große Entfernungen
eine sehr große Rolle. Für alle Anforderungen gilt aber, so kostengünstig und
einfach wie möglich. Gerade die Einfachheit ist sehr wichtig, je komplexer ein
Backup ist, desto mehr Fehler können sich unbemerkt einschleichen.
Um Fehler erkennen zu können, ist eine lückenlose Protokollierung aller Vorgänge notwendig.
Diese Protokolle sollten sich automatisch auswerten und in einer kurzen und
übersichtlichen Form darstellen lassen. Nichts ist schlimmer als jeden Morgen
seitenweise Protokolle lesen zu müssen, und wer schafft das schon regelmäßig?
Also zusammenfassend ist die Automatisierung der Datensicherung und aller dazugehörigen
Abläufe extrem wichtig. Aber warum eine Automatisierung der Abläufe? Die Erklärung für die Automatisierung ist wieder der Faktor Mensch.
Es ist ganz natürlich, das der Admin auch mal etwas vergisst, ob es nun die Kontrolle der Logs oder
das Wechseln der Bänder ist. Wenn es automatisiert ist, dann sind Fehler seltener. Bei Start einer neuen Umgebung oder Applikation macht man sich noch Gedanken
und kontrolliert auch alles noch mal zusätzlich. Nach einer gewissen Laufzeit wird nichts mehr kontrolliert (es läuft ja super) und wenn dann zum Beispiel durch eine
kleine Änderung der Ablauf unterbrochen wird, dann merkt es keiner. Unter Umständen läuft die Sicherung dann für Jahre nicht mehr.
Aber auch die Laufzeit ist bei den heutigen großen Datenmengen ein Problem. Wenn eine Vollsicherung
nicht mehr an einem Wochenende durchzubekommen ist, dann wird das ganze Konzept schwierig. Ganz auf Vollsicherungen
verzichten? Nicht so einfach, aber das Stichwort ist Incremental Forever (siehe unten). Auch diese Anforderungen sind mit der passenden Backup-Software möglich. Aber ganz auf das Backup
zu verzichten ist sicherlich der falsche Weg. Das Backup ist die Versicherung für die EDV.
In diesem Zusammenhang fallen immer wieder die
Begriffe Backup, Recovery und Restore. Hierbei ist das Backup die Sicherung
der aktiven Daten, diese liegen auf Festplatten, SSDs oder auch in der Cloud und mit ihnen wird gearbeitet
(die typischen Word-Dokumente, Datenbanken, E-Mails).
Die gesicherten Daten liegen auf Bandlaufwerken, Festplatten
oder speziellen Backupmedien, aber auch in der Cloud. Sie können und sollten auch nicht direkt von den Anwendern genutzt
werden.
Die Recovery ist der Weg zurück, die Daten werden vom Backupmedium zurück auf
die Festplatten, die SSDs oder die Cloud (in die aktiven Daten) gespielt. Dies kann eine einzelne Datei, die irrtümlich
gelöscht wurde, oder der Inhalt des gesamten Servers oder einer Anwendung sein.
Der Begriff Restore kommt eigentlich aus der Großrechnerwelt und beschreibt
das Zurückholen von ausgelagerten (migrierten) Dateien. Er wird aber auch für
das Zurückholen von Daten aus Backupmedien verwendet.
Durch kostengünstige Festplatten (z.B. SATA oder NL-SAS) wird immer häufiger
vom Disk-to-Disk-Backup (D2D) gesprochen. Statt die Backupdaten direkt auf
Bandlaufwerke (D2T) zu schreiben werden sie erst (oder exklusiv) auf Festplatten gespeichert und
dann später auf Bänder verschoben (dann Disk-to-Disk-to-Tape, D2D2T). Die Festplatten verkürzen ein Backup und auch
mehrere Datensicherungen lassen sich parallel durchführen, bzw. sie benötigen nicht so viele Bandlaufwerke.
Für neue Bandtechnologien (LTO8 oder LTO9) sind Netzwerke und Backup-Clients meist nicht schnell genug. Dies
führt dann zum Start-Stop-Modus der Laufwerke, eine große Belastung
für die Mechanik und die Bänder. Sind die Sicherungen schon auf den
Festplatten (bzw. einem RAID-Verbund) des Backup-Servers, so kann es keine Probleme mehr geben.
Bei einer Sicherung auf Tape und dessen Auslagerung sind die Backup-Daten wirklich Offline. Aber gerade diese Auslagerung
ist der große Vorteil der Tape-Sicherung. Es können einzelne Medien (= einzelne Sicherungen) einfach und sicher an einen
anderen Ort gebracht werden.
Aber auch die reine Disk-to-Disk Sicherung wird immer häufiger verwendet. Eine Auslagerung der Daten ist
dort nicht so einfach möglich, man kann ja nicht einfach eine Festplatte aus einem RAID entnehmen. Dafür gibt
es Lösungen: Ein zweites Storage-System an einem anderen Standort und die Daten werden repliziert. Das
zweite System kann auch beim Internet-Provider stehen, dann haben wir die
Internet-Sicherung.
Welchen Gefahren sind die Daten in der Praxis ausgesetzt? Einige Möglichkeiten haben wir ja schon erwähnt, aber war das schon alles? Stellen wir
die Faktoren einmal systematisch auf:
1. Direkte technische Faktoren der Datenhaltung:
Da ist einmal der Ausfall einer Festplatte ohne RAID oder von zwei oder mehr Festplatten bei einem RAID-Speicher zu sehen. Eine
Festplatte ohne RAID ist sehr einfach einzusehen, aber warum auch bei einem RAID? Da gibt es einige Fehlerquellen, gerade bei einem
RAID 5 oder RAID 10 (bei denen nur eine Festplatte ausfallen darf). Dies kann beim Ausfall der ersten Platten der Rebuild auf die
Hot Spare
sein. Gerade beim Rebuild wird eine hohe IO Last erzeugt und da alle anderen Festplatten meist auch der gleichen Belastung in der
Vergangenheit ausgesetzt waren, kann auch eine zweite Platte ausfallen. Und dieser Ausfall bedeutet bei einem RAID 5 oder RAID 1 den
kompletten Datenverlust. Insgesamt ist die Gefahr gering, aber vorhanden!
Aber auch der Ausfall eines RAID-Controllers kann eine echte Gefahr für die Daten bedeuten. In den meisten Fällen muss der Controller mit
exakt dem gleichen Modell und der gleichen Firmware ersetzt werden. Server oder Storage-Systeme ohne Wartungsvertrag sind da besonders gefährdet. Bei
älteren Systemen sind die Controller unter Umständen nicht mehr zu bekommen, oder nur mit einer sehr langen Lieferzeit. Die
Daten sind zwar noch auf den Platten, aber nicht erreichbar.
Und dann natürlich auch ein technischer Fehler in der Firmware des Controllers oder der Festplatte. Wenn Daten durch diese Fehler zerstört werden,
dann ist eine Wiederherstellung ohne Backup nahezu unmöglich.
2. Menschliches Versagen:
Dieses Problem kennt sicherlich jeder, auch jeder Admin: Klar will ich die Dateien löschen, was fragt das Betriebssystem so dumm? Ich weiß doch was ich
tue ... Ohh, falsches Verzeichnis oder falscher Rechner. Dumm gelaufen. Mit einem funktionierenden Backup sind die Folgen meist
überschaubar und gering. Ausschließen wird man diese Fehler allerdings nie ganz. Warum? Wir sind alle nur Menschen und wenn
der User Zugriff auf Dateien hat, um diese zu Erstellen und zu
Ändern, dann kann er sie auch löschen. Und selbst wenn man das Löschen unterbindet, die Änderungen kann man nicht unterbinden (wenigstens
bei den meisten Anwendungen nicht).
Aber auch indirekte Fehler können zu Datenverlust führen. Fehlerhafte Programme in einer Datenbank zum Beispiel. Wird ein Update oder ein Löschen fehlerhaft
ausgeführt, dann sind die Daten unter Umständen nicht mehr brauchbar. Es können deutlich größere Datenbestände betroffen sein. So kann das Löschen
einer einzelnen Zeile in einer Datenbank die gesamte Datenbank unbrauchbar machen. Und auch in Anwendungen können viele Fehler vorhanden sein, die
sich nur zu ganz bestimmten Zeiten oder Umständen auch wirklich auswirken. Solche Fehler sind in der Qualitätssicherung nur schwer zu finden. Gut wenn
man im Falle eines Falles dann ein funktionierendes Backup hat.
3. Sabotage durch Mitarbeiter:
Ein nicht so seltener Fall. Ein Mitarbeiter wird gekündigt und will sich noch am Unternehmen rächen. Einfach mal ein paar Daten löschen. Bei
einem Mitarbeiter im Vertrieb oder im Lager meist überschaubar und auch mit einem einfachen Backup zu beheben. Aber was passiert wenn der
EDV Administrator die Sabotage ausübt? Normalerweise hat er ja auch noch den Zugriff auf die Backup-Daten, egal wie sicher sie abgelegt sind. Aber
was können Unternehmen dagegen machen? Auch dafür gibt es Lösungen im Backup. In größeren Unternehmen muss eine Aufteilung der Administratoren
zwischen aktiven Daten und den Backup-Daten erfolgen. Kein Admin darf auf beide Datengruppen Zugriff haben. Aber was kann man in kleineren Unternehmen
machen? Mit nur einem oder zwei Administratoren wird die Aufteilung schwierig. Ein einfacher Schutz ist die Sicherung auf Tapes und Bänder, die dann
von der Geschäftsführung ausgelagert werden. So ist eventuell nur das wöchentliche Backup verfügbar, aber besser als nichts. Oder die Sicherung
der Daten auf einen zweiten Standort mit automatisch schreibgeschützten WORM Datenspeicher. Wichtig für die Geschäftsführung ist aber auch die
Kontrolle der Abläufe. Hört sich jetzt nach der Überwachung der Administratoren an, aber auch für diese ist die "Kontrolle" wichtig. Man kann
ja auch mal unabsichtlich die Sicherung vergessen haben und bei einer Kündigung wird dann Vorsatz daraus.
4. Viren oder Trojaner / Verschlüsselungstrojaner:
Viren und Trojaner sind einer der größten Gefahren für die Daten, da der Ausfall meist sehr gezielt und auf
wichtige Daten ausgelegt ist. Was macht so ein Trojaner
(Verschlüsselungstrojaner / Kryptotrojaner oder Erpressungstrojaner) wie Petya, NotPetya, Goldeneye oder WannaCry? Der Trojaner verschlüsselt
Dateien auf Festplatten mit einem Schlüssel. Dabei werden alle Dateien im Zugriff der User verschlüsselt. Also die typischen
Office-Dateien, aber auch sonst alles was die Erpresser für wichtig halten. Mit den richtigen Berechtigungen können dies also auch
Datenbank-Dateien oder Anwendungen sein. Sind die Daten erst einmal verschlüsselt, dann benötigt man den Entschlüsselungscode vom Erpresser. Ob
aber nach Zahlung von Lösegeld wirklich der Schlüssel übergeben wird, ist sehr fraglich und sollte man Erpressern wirklich nachgeben? Mit dem richtigen Backup
ist das nicht notwendig. Aber eines ist beim Backup sehr wichtig: Das Backup darf in keinem Fall im Zugriff des Trojaners und damit des befallenen Users
sein. Warum das? Ganz einfach: Hat der User Zugriff auf das Backup, dann kann der Trojaner die Backup-Daten ebenfalls verschlüsseln. Also eine
Kopie der Daten auf ein anderes Laufwerk hilft im Zweifelsfall überhaupt nicht.
Aber warum ist das Backup der wichtigste Schutz gegen diese Gefahr? Warum nicht einfach einen Virenscanner installieren, der wird es schon richten.
Der Virenscanner kann immer nur auf Gefahren reagieren. Wird ein neuer Virus entwickelt, dann müssen erst einmal Rechner infiziert worden sein,
bevor überhaupt eine Erkennung entwickelt werden kann. Also hängt der Virenscanner immer den aktuellen Gefahren hinterher.
Also an erster Stelle das sichere Backup und dann der Virenscanner für Dateien, E-Mails und Webseiten. Und natürlich eine Aufklärung der Mitarbeiter
über mögliche Gefahren.
Aktuelle Tipps aus der Praxis: Die Angriffe auf die IT Infrastruktur werden immer ausgereifter und professioneller. Die Hacker suchen nicht nach einem
leichten Opfer, sondern spionieren das Opfer genau aus, ermitteln mögliche Erpressersummen und finden Passwörter von Administratoren und Systemen
heraus. Es geht also von der einfachen Verschlüsselung der "Office-Daten" der User auf eine Verschlüsselung aller relevanter Daten im Unternehmen. Und zu
diesen Daten gehören auch die Backup-Daten. Wenn der Erpresser das Backup auch verschlüsselt, kann er sicher sein, das die Erpressung erfolgreich sein wird. Weil
was soll das Unternehmen machen, wenn alle Daten verloren sind?
Und da kommt das Backup ins Spiel: Dabei ist es essentiel wichtig, dass diese Daten nicht im Zugriff von Systemen sind. Was bedeutet das? Wenn die Sicherung auf
einem Tape bzw. Band vorhanden ist, das Band aber weiterhin in der Library liegt, dann kann der Erpresser dieses auch löschen. Wird das Band aber
ausgelagert (z.B. im Tresor oder Bankschließfach), dann können die Hacker nicht an die Backupdaten kommen. Es geht ja physikalisch nicht.
Also auch ein Backup in die Cloud kann von einem Hacker manipuliert werden. Einmal haben die Systeme ja einen permanenten Zugriff auf die Daten in der Cloud (sonst
könnten sie ja keine Sicherung automatisiert durchführen) und zum anderen liegt wahrscheinlich das Master-Zugangspasswort in elektronischer Form vor.
Aber was ist noch extrem wichtig (nicht nur für diesen Fall)? Ein Test des Backups bzw. des Restore. Dies sollte regelmäßig getestet werden.
Wenn ein Unternehmen alles dies berücksichtigt, dann lässt ein im ersten Moment erfolgreicher Hackerangriff doch noch gut überstehen. Klar es dauert eine
gewisse Zeit, bis alles wieder läuft. Aber mit einem guten Konzept ist es machbar. Und die EDV kann auch mal als Held da stehen!
Die 3-2-1 Regel hat nichts mit Online-Versteigerungen zu tun. Sie besagt ganz einfach:
mindestens 3 Datenkopien
mindestens 2 verschiedene Medien
mindestens 1 externes Backup
Schauen wir uns das mal etwas genauer an und beleuchten die einzelnen Punkte. Wir fangen von hinten an, warum 1 externe Sicherung? Als Schutz gegen Brand, Wasser oder
Diebstahl sollte eine Kopie an einem anderen Ort aufbewahrt oder erzeugt werden. Klar wenn es brennt, dann sind alle Kopien und das Original verloren, aber die Kopie im
Bankschließfach ist noch unversehrt. Es gibt dabei unterschiedliche Methoden, wie dieses externe Backup durchgeführt werden kann. Einmal ein Tape oder Band, welches aus der
Library entnommen und extern ausgelagert wird. Dann eine Festplattenkopie an einem zweiten Standort, zum Beispiel einer Filiale oder einem externen Rechenzentrum. Eine dritte
Möglichkeit ist das Cloud-Backup, also die Sicherung über das Internet zu einem Dienstleister. Damit haben wir die klassische K-Fall Vorsorge erledigt.
Aber warum auf 2 verschiedene Medien? Klassischer Weise könnte man ja die Sicherung der produktiven Daten auf das produktive Storage-System durchführen. Aber was passiert wenn dieses
Storage ausfallen sollte? Produktive und Backup Daten sind nicht mehr zugreifbar, ein totaler Datenverlust. Also keine gute Idee, alles auf einem
System (oder Medium) zu speichern. Die Lösung ist zum Beispiel die Sicherung auf Tape
oder auf ein anderes Storage-System, im Idealfalle eines anderen Herstellers.
Kommen wir noch zu den 3 Datenkopien: Na ja, 2 verschiedene Medien und eines extern, das wären dann doch die 3 Datenkopien. Mit Originaldaten, der ersten Sicherung auf Festplatte (nicht das gleiche Storage-System) und
dann die ausgelagerte Sicherung auf Tape, da sind wir auch bei 3 Kopien. Es kommt nicht so sehr auf die genaue Zahl an, sondern auf das Prinzip für jede Eventualität gewappnet zu sein.
Gesichert wird auf Bänder und auf spezielle Backupmedien, wie zum Beispiel
Festplattenverbände (RAID-System - Disk-to-Disk). Bei den Bändern geht es von
Einzellaufwerken über Autoloader zur Tapelibrary oder den Robotersilos.
Die einzelnen Hardwaregruppen richten sich nach dem Datenvolumen und den benötigten
Übertragungsraten. Wichtig in diesem Zusammenhang ist auch die Auswahl der richtigen
Bandtechnologie. Dort
werden das Volumen eines Bandes bzw. einer Kassette und die maximale Übertragungsrate
festgelegt. Der absolute Marktführer bei den Bandtechnologien ist LTO, alle anderen führen
ein Schattendasein. Eine Auswahl der geeigneten
Hardware kann nur nach ausführlicher Analyse durchgeführt werden.
Einige
Beispiele für Tape-Libraries finden Sie in den Angeboten der Stor IT Back.
Anmerkung zu Bandtechnologien: Viele sagen, dass die Bänder schon längst Tod sind und sie eigentlich
keiner mehr braucht. Und wer sie noch nutzt, der lebt in der Steinzeit. Das ist sicherlich falsch und
spiegelt auch nicht die Realität wieder. Die meisten Großunternehmen nutzen weiterhin
Tape-Technologien zur Sicherung, aber auch zur Archivierung (WORM-Tapes). Ein Vorteil des Tapes
ist die sichere Auslagerung. Ein Tape kann transportiert werden, es sind keine empfindlichen Bauteile
enthalten, wie zum Beispiel bei einer Festplatte. Selbst einen Sturz verkraften sie noch. Ein Tape benötigt
im Standby keinen Strom und produziert keine Abwärme, also ideal für große Datenmengen. Und ein Tape
ist extrem schnell, vergleichen Sie mal die Transferraten mit denen von Festplatten. Da brauchen Sie
schon ein größeres RAID um ein LTO-6 Tape mit voller Performance zu füllen.
Aber auch die Festplatten haben ihren festen Platz in der Datensicherung. Sie streamen ab 0 MB/s und können viele
Streams auf einmal verarbeiten. Die begrenzte Kapazität wird durch Kompression und Deduplizierung verbessert, die Replikation
auf ein zweites System erübrigt die Auslagerung.
Auch die Sicherung über das Internet in eine Cloud ist möglich. Dies ist zwar nicht direkt Hardware, aber die Cloud
kann durchaus die Auslagerung von Tapes oder Bändern ersetzen. Wichtig ist bei diesem Verfahren die Sicherheit und Performance.
Weitere Informationen zum Internet-Backup.
Die Software ist mindestens genauso wichtig wie die Hardware. Sie legt die
äußeren Gegebenheiten für eine Backup-Lösung fest. Unterschiedlich ist bei den
Herstellern die Anzahl der unterstützen Betriebssysteme für Backupserver
und Backup-Client. An dem Backupserver sind die Bandlaufwerke angeschlossen und/oder er verfügt über den Plattenplatz für die Sicherungsdaten.
Alle Backupclients sichern über diesen Server ihre Daten (außer bei
Serverless oder LANfree). Dieser Backupserver
verwaltet meistens auch die Datenbank aller durchgeführten Sicherungen. Diese
ist besonders wichtig und muss ihrerseits speziell gesichert werden, da ohne
ihre Informationen keine Recovery möglich ist. Weitere Auswahlkriterien sind
die unterstützte Hardware, die Sicherungsgeschwindigkeit und Unterstützung von
anderen Sicherungsformaten.
Wichtig für die Backupsoftware ist das komplette Logging (Protokollierung) aller Funktionen und Fehler. Dieses Log muss sich
einfach und sicher auswerten lassen. Auch Funktionen wie Pre- oder Post-Skripts müssen in das Logging einbezogen werden, nur so
ist eine umfassende Überwachung der Sicherung möglich.
Für virtuelle Umgebungen (VMware, Hyper-V, XEN, KVM) werden spezielle Produkte angeboten, die zum
Teil ausschließlich virtuelle Maschinen sichern können. Sie nutzen die Schnittstellen der Hypervisor-Software (Backup-API)
und sichern ohne lokale Clients.
Wichtig für die Auswahl der richtigen Software ist auch die Unterstützung aller
verwendeten Betriebssysteme, Anwendungen und Datenbanken. Hierbei ist auch die
Möglichkeit von Online-Backups ein wichtiges Kriterium. Nur so
können Sie Datenbanken im laufenden Betrieb sichern. Auch hier wird der Begriff
Online Backup verwendet, diesmal bleiben die Sicherungsquellen aber während
der Sicherung Online. Diese beiden unterschiedlichen Verfahren für den gleichen Begriff sollte man deutlich unterscheiden.
Ein weiteres Kriterium der Backup-Software sind
die Sicherungsläufe. Jede Software beherrscht eine Vollsicherung (Full-Backup).
Daneben gibt es das inkrementelle Backup und das differentielle Backup.
Bei der inkrementellen Sicherung werden nur veränderte Daten gesichert, es werden sowohl die Vollsicherung wie auch die vorherigen inkrementellen Sicherungen berücksichtigt. Es werden also nur die Daten gesichert, die auch am Tag der Sicherung verändert wurden. Die Menge der zu sichernden Daten kann zwar nicht kontrolliert oder begrenzt werden, aber es ist die geringste Menge an Daten bei den gängigen Sicherungsverfahren. Also von der Sicherung her die Beste und effektivste Lösung.
Der Nachteil der inkrementellen Sicherung ist die längere Recovery, da mehr
Bänder benötigt werden und die Berechnung von doppelten Dateien mehr Zeit in
Anspruch nimmt. Dies trifft natürlich nur bei einem Full-Restore zu, eine einzelne Datei kann genauso schnell wiederhergestellt werden,
wie aus einer Vollsicherung. Bei der inkrementellen Sicherung muss die maximale Zeit eines Full-Restores vorgeben werden, daraus ergibt sich
die maximale Anzahl von inkrementellen Sicherung zwischen den Vollsicherung. Die Zeit muss allerdings mit Tests
ermittelt werden und von Zeit zu Zeit überprüft werden.
Einige Hersteller bieten auch eine reverse inkrementelle Sicherung an. Gesichert wird bei diesem Verfahren auch inkrementell (also die Daten, die seit
der letzten inkrementellen Sicherung verändert wurden), auf dem Backup-Server werden die Daten aber direkt in die letzte Sicherung integriert. Auf dem Backup-Server
ist also die neuste Sicherung immer eine virtuelle Vollsicherung (ein schneller Full-Restore), auf dem Client wird aber die schnelle inkrementelle Sicherung genutzt.
Eine ideale Lösung? Für Backup und Restore ja, aber eine riesige Belastung für den Backup-Server, der quasi jeden Tag einen internen Full-Restore durchführen muss.
Bei der differenziellen Sicherung (Differential Backup) werden alle Daten, die seit der letzten Vollsicherung geändert wurden, gesichert. Damit wird das Backup von Tag zu Tag länger, bis zur nächsten Vollsicherung. Das ist der eigentlich Nachteil der differentiellen Sicherung, am Montag reicht die Zeit noch, am Dienstag eventuell auch noch und dann wird es schwieriger, das Backupfenster reicht nicht mehr.
Aber warum wird die differentielle Sicherung trotzdem angewendet? Wenn der Fullrestore bei den inkrementellen Sicherungen einfach
zu lange dauert und in der Woche eine Vollsicherung nicht durchgeführt werden kann. Die einzige Chance ist dann dieses Verfahren.
Immer häufig gibt es auch Backup-Software, die nur noch inkrementelle Sicherungen
durchführt (Incremental Forever). Dies wird immer dann gebraucht, wenn eine Vollsicherung nicht
mehr in angemessener Zeit durchgeführt werden kann. Diese spezielle Software
generiert dann zum Beispiel innerhalb des Backup-Servers virtuelle Vollsicherungen,
um eine Recovery zu beschleunigen. Oder die Backup-Software ist vom Design her
auf inkrementelle Sicherungen ausgelegt, die Datenbank ist schnell und effektiv
genug, um aus reinen inkrementellen Sicherungen eine Voll-Recovery zu generieren.
Ein Full-Restore ist also genau so schnell wie bei herkömmlichen Produkten.
Das Reverse Incremental Backup ist mit der Incremental Forever Technologie verwandt. Und genau diese Methode soll verbessert werden. Aber
wo liegt der Nachteil bei Incremental Forever? Die Sicherung, das Backup an sich, ist ideal. Immer nur die Änderungen werden
generiert und übertragen, der Speicherplatz für die Sicherung ist klein. Aber beim Restore von großen Datenmengen, der Voll-Rücksicherung, hat das Incremental Forever
einen klaren Nachteil. Je nach dem wann die letzte virtuelle Vollsicherung erstellt wurde, werden sehr viele inkrementelle Teilstücke für einen
Full-Restore (zum Beispiel nach einem Datenverlust) benötigt. Und dies dauert deutlich länger, also wenn nur eine Vollsicherung
vorhanden wäre. Und genau dort setzt die Reverse Incremental Technologie an: Die inkrementelle Sicherung wird sofort im Backupserver (oder
Medienserver) in die letzte Vollsicherung eingebaut. Es gibt also nur noch eine Vollsicherung und beim Fullrestore, egal an welchem Tag, wird nur
die Vollsicherung benötigt. Also der schnellste Restore und die schnellste Sicherung.
Aber warum macht das nicht jeder? Der Nachteil ist der große Aufwand für den Backupserver. Dieser muss extrem viele Daten bei jeder Sicherung
bewegen. Und dieses Verfahren ist nur bei einer festplattenbasierten Sicherung möglich. Ansonsten müsste ja bei jedem Backup das komplette Band
auf ein anderes kopiert und leicht verändert werden.
Aber wenn man jetzt beim "Reverse Inkremental" auf einen älteren Stand zurück möchte? Die Backup-Software muss natürlich auch die inkrementellen
Sicherungen aufbewahren und verwalten. Wird also eine alte Datei benötigt, so wird diese aus einer inkrementellen Sicherung heraus genommen.
Zusammenfassung: Ideal für einen schnellen Restore bei großen Datenmengen, wenn nur inkrementelle Sicherungen durchgeführt werden können.
Welches Verfahren ist denn jetzt das Richtige für mich? In unserer Schulung
zum Thema Datensicherung im heterogenen Umfeld erläutern wir die Vor- und Nachteile
und gehen detailliert auf Ihre Fragen ein.
Es gibt unterschiedliche Verfahren um eine Backuplösung aufzubauen. Die einfachste Variante ist der Einbau eines Bandlaufwerkes in einen Server. Dieser Server sichert nur seine eigenen lokalen Daten. Dieses Verfahren wird hiernach "lokales Backup" genannt. Soll dieser Server auch die Daten von anderen Rechnern sichern, so liegt ein "Netzwerkbackup" vor. Die Daten werden über das LAN vom Backupclient (dies kann auch ein Server sein) zu einem Backupserver geschickt. Treten Probleme mit der Übertragungsgeschwindigkeit des Netzwerkes auf, so kann auf das so genannte "LAN-free" Backup ausgewichen werden. Hierbei liegen Storage, Server und Backuphardware in einem "Storage Area Network" (SAN) und die Daten werden von allen Backupclients direkt zur Tapehardware geschickt. Gibt es Probleme mit der Performance des Servers, so kann noch auf das "Serverless-Backup " ausgewichen werden. Hierbei werden die Daten direkt vom Storagesubsystem über die "Storage Area Network" Hardware zur Tapehardware geschickt. Weder LAN noch der Produktionsserver werden belastet.