Stor IT Back - Ihr Speicherspezialist

Stor IT Back

Backup und Recovery V1.18 (c) Stor IT Back 2024



Backup und Recovery - Business Continuity mit Vollsicherung, inkrementelle und differentielle Sicherung

Viele Administratoren und Geschäftsführer stellen sich die Frage: Backup, brauche ich das wirklich, ich habe doch RAID? Oder was brauche ich für ein Backup? Wie sichere ich in meiner virtuellen Umgebung die Daten? Wie die Betriebssysteme? Müssen Betriebssysteme überhaupt gesichert werden? Woher weiß ich denn, ob sich mein Backup wirklich recovern lässt? Sind die Daten überhaupt lesbar?

Fangen wir vorne an: Wie schnell ist eine Festplatte defekt, gerade bei den aktuell extrem großen Festplatten kann auch ein RAID 5 / 6 oder RAID 1 nicht mehr ausreichend sein. Das ein Server Feuer fängt oder unter Wasser gesetzt wird ist zwar nicht so häufiger der Fall. Dass ein Anwender irrtümlicherweise (oder gar absichtlich) Daten löscht, kommt häufiger vor als man denkt. Und in diesen Fällen hilft das RAID nicht. Genauso bei Virenbefall oder dem Verschlüsselungstrojaner, die Daten sind trotz RAID alle weg. Hinterher ist guter Rat teuer.

Was ist die Erklärung, warum der Ausfall der EDV sehr teuer für ein Unternehmen ist?
Nehmen wir an, Ihr Kundenstamm ist weg, Sie wissen nicht mehr wer was bestellt hat oder wer seine Rechnung nicht bezahlt hat. Die ersten Forderungen der Lieferanten treffen ein, Sie wissen aber nicht mehr, an wen Sie die Ware eigentlich ausliefern sollten. Dies wird mit Sicherheit einen ernsten Schaden nach sich ziehen. Sie sagen, alles kein Problem, ich habe ja alles ausgedruckt, eine Datensicherung ist nicht so wichtig für mich. Dann haben sie aber keine Vorlagen für Rechnungen, Lieferscheine oder ähnliches mehr. Alles muss neu entworfen werden, die Buchhaltungsdaten müssen neu eingetippt werden, umfangreiche Kalkulationen sind verloren, Fehler in Adressen, Bankverbindungen und Namen schleichen sich ein, und so weiter. Und damit dauern die Vorgänge deutlich länger, Kunden springen ab, extremer Arbeitsaufwand, aber trotzdem unzufriedene Kunden.

Zusätzliche Kosten und mindestens ein Image-Verlust. Der Image-Verlust ist als Soft-Fakt schwerer zu bewerten. Aber möchten Sie bei einem Unternehmen bestellen, welches Ihre Bestellung verloren hat und erst wieder Nachfragen muss?



 
 

Business Continuity (BC) im Desaster Fall

Einige Beispiele für einen Desaster Fall finde Sie in der Einleitung. Es ist aber für die Business Continuity egal, wie die Daten verloren gegangen sind, ob nun absichtliches Löschen, ein Virus oder Hardware-Ausfall. Auch ist es kein Thema alleine für die EDV oder die IT-Abteilung. Das Management muss festlegen, wie im Desaster-Falle reagiert werden muss. Welche Prozesse im Unternehmen sind wichtig und welche maximale Ausfallzeit kann toleriert werden. Diese Fragen kann ein Administrator meist nicht mal ansatzweise beantworten und sollte es auch nicht, da das Haftungsrisiko beim Management liegt.

Welche Informationen braucht die EDV Abteilung für die Business Continuity?
1. Eine Abstufung der Prozesse im Unternehmen mit der Wichtigkeit.
2. Welche EDV-Anwendungen betreffen die einzelnen Prozesse.
3. Welche Ausfallzeiten für die einzelnen Prozesse im Unternehmen sind tolerierbar.
4. Gibt es Alternativen für wichtige Prozesse im Unternehmen.

Diese Fragen können im Rahmen einer Business Impact Analyse (BIA) bearbeitet werden. Sind die Fragen nach den Prozessen und der maximalen Ausfallzeiten beantwortet, dann kann die EDV die entsprechenden Maßnahmen und Lösungen erarbeiten.

Wichtig ist auf jeden Fall, dass nicht alle Forderungen mit einem Backup abgedeckt werden können. Sind maximale Ausfallzeiten von wenigen Minuten definiert worden, dann wird zum Beispiel eine Replikation mit SnapShots an einem zweiten Standort benötigt.



 
 

Automatisierung und Auslagerung für ein modernes Backup

Die Anforderungen an ein zeitgemäßes Backup haben sich grundlegend geändert. Heute spielen Onlinezeiten von 7 mal 24 Stunden eine große Rolle, selbst bei vollständigen Serverausfällen müssen die Daten innerhalb kürzester Zeit wieder verfügbar sein. Und viele Anwendungen und Daten befinden sich in virtuellen Umgebungen, diese müssen mindestens genauso gut gesichert werden. Nach dem 11. September spielen auch Auslagerungen und Duplizierungen der Backupdaten über große Entfernungen eine sehr große Rolle. Für alle Anforderungen gilt aber, so kostengünstig und einfach wie möglich. Gerade die Einfachheit ist sehr wichtig, je komplexer ein Backup ist, desto mehr Fehler können sich unbemerkt einschleichen.

Um Fehler erkennen zu können, ist eine lückenlose Protokollierung aller Vorgänge notwendig. Diese Protokolle sollten sich automatisch auswerten und in einer kurzen und übersichtlichen Form darstellen lassen. Nichts ist schlimmer als jeden Morgen seitenweise Protokolle lesen zu müssen, und wer schafft das schon regelmäßig?
Also zusammenfassend ist die Automatisierung der Datensicherung und aller dazugehörigen Abläufe extrem wichtig. Aber warum eine Automatisierung der Abläufe? Die Erklärung für die Automatisierung ist wieder der Faktor Mensch. Es ist ganz natürlich, das der Admin auch mal etwas vergisst, ob es nun die Kontrolle der Logs oder das Wechseln der Bänder ist. Wenn es automatisiert ist, dann sind Fehler seltener. Bei Start einer neuen Umgebung oder Applikation macht man sich noch Gedanken und kontrolliert auch alles noch mal zusätzlich. Nach einer gewissen Laufzeit wird nichts mehr kontrolliert (es läuft ja super) und wenn dann zum Beispiel durch eine kleine Änderung der Ablauf unterbrochen wird, dann merkt es keiner. Unter Umständen läuft die Sicherung dann für Jahre nicht mehr.

Aber auch die Laufzeit ist bei den heutigen großen Datenmengen ein Problem. Wenn eine Vollsicherung nicht mehr an einem Wochenende durchzubekommen ist, dann wird das ganze Konzept schwierig. Ganz auf Vollsicherungen verzichten? Nicht so einfach, aber das Stichwort ist Incremental Forever (siehe unten). Auch diese Anforderungen sind mit der passenden Backup-Software möglich. Aber ganz auf das Backup zu verzichten ist sicherlich der falsche Weg. Das Backup ist die Versicherung für die EDV.



 
 

Begriffe zum Thema Backup und Recovery

In diesem Zusammenhang fallen immer wieder die Begriffe Backup, Recovery und Restore. Hierbei ist das Backup die Sicherung der aktiven Daten, diese liegen auf Festplatten, SSDs oder auch in der Cloud und mit ihnen wird gearbeitet (die typischen Word-Dokumente, Datenbanken, E-Mails).

Die gesicherten Daten liegen auf Bandlaufwerken, Festplatten oder speziellen Backupmedien, aber auch in der Cloud. Sie können und sollten auch nicht direkt von den Anwendern genutzt werden.

Die Recovery ist der Weg zurück, die Daten werden vom Backupmedium zurück auf die Festplatten, die SSDs oder die Cloud (in die aktiven Daten) gespielt. Dies kann eine einzelne Datei, die irrtümlich gelöscht wurde, oder der Inhalt des gesamten Servers oder einer Anwendung sein.

Der Begriff Restore kommt eigentlich aus der Großrechnerwelt und beschreibt das Zurückholen von ausgelagerten (migrierten) Dateien. Er wird aber auch für das Zurückholen von Daten aus Backupmedien verwendet.

Durch kostengünstige Festplatten (z.B. SATA oder NL-SAS) wird immer häufiger vom Disk-to-Disk-Backup (D2D) gesprochen. Statt die Backupdaten direkt auf Bandlaufwerke (D2T) zu schreiben werden sie erst (oder exklusiv) auf Festplatten gespeichert und dann später auf Bänder verschoben (dann Disk-to-Disk-to-Tape, D2D2T). Die Festplatten verkürzen ein Backup und auch mehrere Datensicherungen lassen sich parallel durchführen, bzw. sie benötigen nicht so viele Bandlaufwerke.

Für neue Bandtechnologien (LTO8 oder LTO9) sind Netzwerke und Backup-Clients meist nicht schnell genug. Dies führt dann zum Start-Stop-Modus der Laufwerke, eine große Belastung für die Mechanik und die Bänder. Sind die Sicherungen schon auf den Festplatten (bzw. einem RAID-Verbund) des Backup-Servers, so kann es keine Probleme mehr geben.

Bei einer Sicherung auf Tape und dessen Auslagerung sind die Backup-Daten wirklich Offline. Aber gerade diese Auslagerung ist der große Vorteil der Tape-Sicherung. Es können einzelne Medien (= einzelne Sicherungen) einfach und sicher an einen anderen Ort gebracht werden.

Aber auch die reine Disk-to-Disk Sicherung wird immer häufiger verwendet. Eine Auslagerung der Daten ist dort nicht so einfach möglich, man kann ja nicht einfach eine Festplatte aus einem RAID entnehmen. Dafür gibt es Lösungen: Ein zweites Storage-System an einem anderen Standort und die Daten werden repliziert. Das zweite System kann auch beim Internet-Provider stehen, dann haben wir die Internet-Sicherung.



 
 

Gefahren für die Daten

Welchen Gefahren sind die Daten in der Praxis ausgesetzt? Einige Möglichkeiten haben wir ja schon erwähnt, aber war das schon alles? Stellen wir die Faktoren einmal systematisch auf:

1. Direkte technische Faktoren der Datenhaltung:
Da ist einmal der Ausfall einer Festplatte ohne RAID oder von zwei oder mehr Festplatten bei einem RAID-Speicher zu sehen. Eine Festplatte ohne RAID ist sehr einfach einzusehen, aber warum auch bei einem RAID? Da gibt es einige Fehlerquellen, gerade bei einem RAID 5 oder RAID 10 (bei denen nur eine Festplatte ausfallen darf). Dies kann beim Ausfall der ersten Platten der Rebuild auf die Hot Spare sein. Gerade beim Rebuild wird eine hohe IO Last erzeugt und da alle anderen Festplatten meist auch der gleichen Belastung in der Vergangenheit ausgesetzt waren, kann auch eine zweite Platte ausfallen. Und dieser Ausfall bedeutet bei einem RAID 5 oder RAID 1 den kompletten Datenverlust. Insgesamt ist die Gefahr gering, aber vorhanden!
Aber auch der Ausfall eines RAID-Controllers kann eine echte Gefahr für die Daten bedeuten. In den meisten Fällen muss der Controller mit exakt dem gleichen Modell und der gleichen Firmware ersetzt werden. Server oder Storage-Systeme ohne Wartungsvertrag sind da besonders gefährdet. Bei älteren Systemen sind die Controller unter Umständen nicht mehr zu bekommen, oder nur mit einer sehr langen Lieferzeit. Die Daten sind zwar noch auf den Platten, aber nicht erreichbar.
Und dann natürlich auch ein technischer Fehler in der Firmware des Controllers oder der Festplatte. Wenn Daten durch diese Fehler zerstört werden, dann ist eine Wiederherstellung ohne Backup nahezu unmöglich.

2. Menschliches Versagen:
Dieses Problem kennt sicherlich jeder, auch jeder Admin: Klar will ich die Dateien löschen, was fragt das Betriebssystem so dumm? Ich weiß doch was ich tue ... Ohh, falsches Verzeichnis oder falscher Rechner. Dumm gelaufen. Mit einem funktionierenden Backup sind die Folgen meist überschaubar und gering. Ausschließen wird man diese Fehler allerdings nie ganz. Warum? Wir sind alle nur Menschen und wenn der User Zugriff auf Dateien hat, um diese zu Erstellen und zu Ändern, dann kann er sie auch löschen. Und selbst wenn man das Löschen unterbindet, die Änderungen kann man nicht unterbinden (wenigstens bei den meisten Anwendungen nicht).
Aber auch indirekte Fehler können zu Datenverlust führen. Fehlerhafte Programme in einer Datenbank zum Beispiel. Wird ein Update oder ein Löschen fehlerhaft ausgeführt, dann sind die Daten unter Umständen nicht mehr brauchbar. Es können deutlich größere Datenbestände betroffen sein. So kann das Löschen einer einzelnen Zeile in einer Datenbank die gesamte Datenbank unbrauchbar machen. Und auch in Anwendungen können viele Fehler vorhanden sein, die sich nur zu ganz bestimmten Zeiten oder Umständen auch wirklich auswirken. Solche Fehler sind in der Qualitätssicherung nur schwer zu finden. Gut wenn man im Falle eines Falles dann ein funktionierendes Backup hat.

3. Sabotage durch Mitarbeiter:
Ein nicht so seltener Fall. Ein Mitarbeiter wird gekündigt und will sich noch am Unternehmen rächen. Einfach mal ein paar Daten löschen. Bei einem Mitarbeiter im Vertrieb oder im Lager meist überschaubar und auch mit einem einfachen Backup zu beheben. Aber was passiert wenn der EDV Administrator die Sabotage ausübt? Normalerweise hat er ja auch noch den Zugriff auf die Backup-Daten, egal wie sicher sie abgelegt sind. Aber was können Unternehmen dagegen machen? Auch dafür gibt es Lösungen im Backup. In größeren Unternehmen muss eine Aufteilung der Administratoren zwischen aktiven Daten und den Backup-Daten erfolgen. Kein Admin darf auf beide Datengruppen Zugriff haben. Aber was kann man in kleineren Unternehmen machen? Mit nur einem oder zwei Administratoren wird die Aufteilung schwierig. Ein einfacher Schutz ist die Sicherung auf Tapes und Bänder, die dann von der Geschäftsführung ausgelagert werden. So ist eventuell nur das wöchentliche Backup verfügbar, aber besser als nichts. Oder die Sicherung der Daten auf einen zweiten Standort mit automatisch schreibgeschützten WORM Datenspeicher. Wichtig für die Geschäftsführung ist aber auch die Kontrolle der Abläufe. Hört sich jetzt nach der Überwachung der Administratoren an, aber auch für diese ist die "Kontrolle" wichtig. Man kann ja auch mal unabsichtlich die Sicherung vergessen haben und bei einer Kündigung wird dann Vorsatz daraus.

4. Viren oder Trojaner / Verschlüsselungstrojaner:
Viren und Trojaner sind einer der größten Gefahren für die Daten, da der Ausfall meist sehr gezielt und auf wichtige Daten ausgelegt ist. Was macht so ein Trojaner (Verschlüsselungstrojaner / Kryptotrojaner oder Erpressungstrojaner) wie Petya, NotPetya, Goldeneye oder WannaCry? Der Trojaner verschlüsselt Dateien auf Festplatten mit einem Schlüssel. Dabei werden alle Dateien im Zugriff der User verschlüsselt. Also die typischen Office-Dateien, aber auch sonst alles was die Erpresser für wichtig halten. Mit den richtigen Berechtigungen können dies also auch Datenbank-Dateien oder Anwendungen sein. Sind die Daten erst einmal verschlüsselt, dann benötigt man den Entschlüsselungscode vom Erpresser. Ob aber nach Zahlung von Lösegeld wirklich der Schlüssel übergeben wird, ist sehr fraglich und sollte man Erpressern wirklich nachgeben? Mit dem richtigen Backup ist das nicht notwendig. Aber eines ist beim Backup sehr wichtig: Das Backup darf in keinem Fall im Zugriff des Trojaners und damit des befallenen Users sein. Warum das? Ganz einfach: Hat der User Zugriff auf das Backup, dann kann der Trojaner die Backup-Daten ebenfalls verschlüsseln. Also eine Kopie der Daten auf ein anderes Laufwerk hilft im Zweifelsfall überhaupt nicht.
Aber warum ist das Backup der wichtigste Schutz gegen diese Gefahr? Warum nicht einfach einen Virenscanner installieren, der wird es schon richten. Der Virenscanner kann immer nur auf Gefahren reagieren. Wird ein neuer Virus entwickelt, dann müssen erst einmal Rechner infiziert worden sein, bevor überhaupt eine Erkennung entwickelt werden kann. Also hängt der Virenscanner immer den aktuellen Gefahren hinterher.
Also an erster Stelle das sichere Backup und dann der Virenscanner für Dateien, E-Mails und Webseiten. Und natürlich eine Aufklärung der Mitarbeiter über mögliche Gefahren.
Aktuelle Tipps aus der Praxis: Die Angriffe auf die IT Infrastruktur werden immer ausgereifter und professioneller. Die Hacker suchen nicht nach einem leichten Opfer, sondern spionieren das Opfer genau aus, ermitteln mögliche Erpressersummen und finden Passwörter von Administratoren und Systemen heraus. Es geht also von der einfachen Verschlüsselung der "Office-Daten" der User auf eine Verschlüsselung aller relevanter Daten im Unternehmen. Und zu diesen Daten gehören auch die Backup-Daten. Wenn der Erpresser das Backup auch verschlüsselt, kann er sicher sein, das die Erpressung erfolgreich sein wird. Weil was soll das Unternehmen machen, wenn alle Daten verloren sind?
Und da kommt das Backup ins Spiel: Dabei ist es essentiel wichtig, dass diese Daten nicht im Zugriff von Systemen sind. Was bedeutet das? Wenn die Sicherung auf einem Tape bzw. Band vorhanden ist, das Band aber weiterhin in der Library liegt, dann kann der Erpresser dieses auch löschen. Wird das Band aber ausgelagert (z.B. im Tresor oder Bankschließfach), dann können die Hacker nicht an die Backupdaten kommen. Es geht ja physikalisch nicht.
Also auch ein Backup in die Cloud kann von einem Hacker manipuliert werden. Einmal haben die Systeme ja einen permanenten Zugriff auf die Daten in der Cloud (sonst könnten sie ja keine Sicherung automatisiert durchführen) und zum anderen liegt wahrscheinlich das Master-Zugangspasswort in elektronischer Form vor.
Aber was ist noch extrem wichtig (nicht nur für diesen Fall)? Ein Test des Backups bzw. des Restore. Dies sollte regelmäßig getestet werden.
Wenn ein Unternehmen alles dies berücksichtigt, dann lässt ein im ersten Moment erfolgreicher Hackerangriff doch noch gut überstehen. Klar es dauert eine gewisse Zeit, bis alles wieder läuft. Aber mit einem guten Konzept ist es machbar. Und die EDV kann auch mal als Held da stehen!



 
 

3-2-1 Regel in der Datensicherung

Die 3-2-1 Regel hat nichts mit Online-Versteigerungen zu tun. Sie besagt ganz einfach:

mindestens 3 Datenkopien
mindestens 2 verschiedene Medien
mindestens 1 externes Backup

Schauen wir uns das mal etwas genauer an und beleuchten die einzelnen Punkte. Wir fangen von hinten an, warum 1 externe Sicherung? Als Schutz gegen Brand, Wasser oder Diebstahl sollte eine Kopie an einem anderen Ort aufbewahrt oder erzeugt werden. Klar wenn es brennt, dann sind alle Kopien und das Original verloren, aber die Kopie im Bankschließfach ist noch unversehrt. Es gibt dabei unterschiedliche Methoden, wie dieses externe Backup durchgeführt werden kann. Einmal ein Tape oder Band, welches aus der Library entnommen und extern ausgelagert wird. Dann eine Festplattenkopie an einem zweiten Standort, zum Beispiel einer Filiale oder einem externen Rechenzentrum. Eine dritte Möglichkeit ist das Cloud-Backup, also die Sicherung über das Internet zu einem Dienstleister. Damit haben wir die klassische K-Fall Vorsorge erledigt.
Aber warum auf 2 verschiedene Medien? Klassischer Weise könnte man ja die Sicherung der produktiven Daten auf das produktive Storage-System durchführen. Aber was passiert wenn dieses Storage ausfallen sollte? Produktive und Backup Daten sind nicht mehr zugreifbar, ein totaler Datenverlust. Also keine gute Idee, alles auf einem System (oder Medium) zu speichern. Die Lösung ist zum Beispiel die Sicherung auf Tape oder auf ein anderes Storage-System, im Idealfalle eines anderen Herstellers.
Kommen wir noch zu den 3 Datenkopien: Na ja, 2 verschiedene Medien und eines extern, das wären dann doch die 3 Datenkopien. Mit Originaldaten, der ersten Sicherung auf Festplatte (nicht das gleiche Storage-System) und dann die ausgelagerte Sicherung auf Tape, da sind wir auch bei 3 Kopien. Es kommt nicht so sehr auf die genaue Zahl an, sondern auf das Prinzip für jede Eventualität gewappnet zu sein.



 
 

Backup-Hardware - Tape-Library, Disk, Cloud

Gesichert wird auf Bänder und auf spezielle Backupmedien, wie zum Beispiel Festplattenverbände (RAID-System - Disk-to-Disk). Bei den Bändern geht es von Einzellaufwerken über Autoloader zur Tapelibrary oder den Robotersilos. Die einzelnen Hardwaregruppen richten sich nach dem Datenvolumen und den benötigten Übertragungsraten. Wichtig in diesem Zusammenhang ist auch die Auswahl der richtigen Bandtechnologie. Dort werden das Volumen eines Bandes bzw. einer Kassette und die maximale Übertragungsrate festgelegt. Der absolute Marktführer bei den Bandtechnologien ist LTO, alle anderen führen ein Schattendasein. Eine Auswahl der geeigneten Hardware kann nur nach ausführlicher Analyse durchgeführt werden. Einige Beispiele für Tape-Libraries finden Sie in den Angeboten der Stor IT Back.

Anmerkung zu Bandtechnologien: Viele sagen, dass die Bänder schon längst Tod sind und sie eigentlich keiner mehr braucht. Und wer sie noch nutzt, der lebt in der Steinzeit. Das ist sicherlich falsch und spiegelt auch nicht die Realität wieder. Die meisten Großunternehmen nutzen weiterhin Tape-Technologien zur Sicherung, aber auch zur Archivierung (WORM-Tapes). Ein Vorteil des Tapes ist die sichere Auslagerung. Ein Tape kann transportiert werden, es sind keine empfindlichen Bauteile enthalten, wie zum Beispiel bei einer Festplatte. Selbst einen Sturz verkraften sie noch. Ein Tape benötigt im Standby keinen Strom und produziert keine Abwärme, also ideal für große Datenmengen. Und ein Tape ist extrem schnell, vergleichen Sie mal die Transferraten mit denen von Festplatten. Da brauchen Sie schon ein größeres RAID um ein LTO-6 Tape mit voller Performance zu füllen.

Aber auch die Festplatten haben ihren festen Platz in der Datensicherung. Sie streamen ab 0 MB/s und können viele Streams auf einmal verarbeiten. Die begrenzte Kapazität wird durch Kompression und Deduplizierung verbessert, die Replikation auf ein zweites System erübrigt die Auslagerung.
Auch die Sicherung über das Internet in eine Cloud ist möglich. Dies ist zwar nicht direkt Hardware, aber die Cloud kann durchaus die Auslagerung von Tapes oder Bändern ersetzen. Wichtig ist bei diesem Verfahren die Sicherheit und Performance. Weitere Informationen zum Internet-Backup.



 
 

Backup-Software

Die Software ist mindestens genauso wichtig wie die Hardware. Sie legt die äußeren Gegebenheiten für eine Backup-Lösung fest. Unterschiedlich ist bei den Herstellern die Anzahl der unterstützen Betriebssysteme für Backupserver und Backup-Client. An dem Backupserver sind die Bandlaufwerke angeschlossen und/oder er verfügt über den Plattenplatz für die Sicherungsdaten. Alle Backupclients sichern über diesen Server ihre Daten (außer bei Serverless oder LANfree). Dieser Backupserver verwaltet meistens auch die Datenbank aller durchgeführten Sicherungen. Diese ist besonders wichtig und muss ihrerseits speziell gesichert werden, da ohne ihre Informationen keine Recovery möglich ist. Weitere Auswahlkriterien sind die unterstützte Hardware, die Sicherungsgeschwindigkeit und Unterstützung von anderen Sicherungsformaten.
Wichtig für die Backupsoftware ist das komplette Logging (Protokollierung) aller Funktionen und Fehler. Dieses Log muss sich einfach und sicher auswerten lassen. Auch Funktionen wie Pre- oder Post-Skripts müssen in das Logging einbezogen werden, nur so ist eine umfassende Überwachung der Sicherung möglich.

Für virtuelle Umgebungen (VMware, Hyper-V, XEN, KVM) werden spezielle Produkte angeboten, die zum Teil ausschließlich virtuelle Maschinen sichern können. Sie nutzen die Schnittstellen der Hypervisor-Software (Backup-API) und sichern ohne lokale Clients.
Wichtig für die Auswahl der richtigen Software ist auch die Unterstützung aller verwendeten Betriebssysteme, Anwendungen und Datenbanken. Hierbei ist auch die Möglichkeit von Online-Backups ein wichtiges Kriterium. Nur so können Sie Datenbanken im laufenden Betrieb sichern. Auch hier wird der Begriff Online Backup verwendet, diesmal bleiben die Sicherungsquellen aber während der Sicherung Online. Diese beiden unterschiedlichen Verfahren für den gleichen Begriff sollte man deutlich unterscheiden.

Ein weiteres Kriterium der Backup-Software sind die Sicherungsläufe. Jede Software beherrscht eine Vollsicherung (Full-Backup). Daneben gibt es das inkrementelle Backup und das differentielle Backup.



 
 

Inkrementelles Backup / Inkrementelle Sicherung

Bei der inkrementellen Sicherung werden nur veränderte Daten gesichert, es werden sowohl die Vollsicherung wie auch die vorherigen inkrementellen Sicherungen berücksichtigt. Es werden also nur die Daten gesichert, die auch am Tag der Sicherung verändert wurden. Die Menge der zu sichernden Daten kann zwar nicht kontrolliert oder begrenzt werden, aber es ist die geringste Menge an Daten bei den gängigen Sicherungsverfahren. Also von der Sicherung her die Beste und effektivste Lösung.

inkrementelle Sicherung

Der Nachteil der inkrementellen Sicherung ist die längere Recovery, da mehr Bänder benötigt werden und die Berechnung von doppelten Dateien mehr Zeit in Anspruch nimmt. Dies trifft natürlich nur bei einem Full-Restore zu, eine einzelne Datei kann genauso schnell wiederhergestellt werden, wie aus einer Vollsicherung. Bei der inkrementellen Sicherung muss die maximale Zeit eines Full-Restores vorgeben werden, daraus ergibt sich die maximale Anzahl von inkrementellen Sicherung zwischen den Vollsicherung. Die Zeit muss allerdings mit Tests ermittelt werden und von Zeit zu Zeit überprüft werden.
Einige Hersteller bieten auch eine reverse inkrementelle Sicherung an. Gesichert wird bei diesem Verfahren auch inkrementell (also die Daten, die seit der letzten inkrementellen Sicherung verändert wurden), auf dem Backup-Server werden die Daten aber direkt in die letzte Sicherung integriert. Auf dem Backup-Server ist also die neuste Sicherung immer eine virtuelle Vollsicherung (ein schneller Full-Restore), auf dem Client wird aber die schnelle inkrementelle Sicherung genutzt. Eine ideale Lösung? Für Backup und Restore ja, aber eine riesige Belastung für den Backup-Server, der quasi jeden Tag einen internen Full-Restore durchführen muss.



 
 

Differentielles Backup / Differenzielle Sicherung

Bei der differenziellen Sicherung (Differential Backup) werden alle Daten, die seit der letzten Vollsicherung geändert wurden, gesichert. Damit wird das Backup von Tag zu Tag länger, bis zur nächsten Vollsicherung. Das ist der eigentlich Nachteil der differentiellen Sicherung, am Montag reicht die Zeit noch, am Dienstag eventuell auch noch und dann wird es schwieriger, das Backupfenster reicht nicht mehr.

differentielle Sicherung

Aber warum wird die differentielle Sicherung trotzdem angewendet? Wenn der Fullrestore bei den inkrementellen Sicherungen einfach zu lange dauert und in der Woche eine Vollsicherung nicht durchgeführt werden kann. Die einzige Chance ist dann dieses Verfahren.



 
 

Incremental Forever / Inkrementelle Sicherung für immer

Immer häufig gibt es auch Backup-Software, die nur noch inkrementelle Sicherungen durchführt (Incremental Forever). Dies wird immer dann gebraucht, wenn eine Vollsicherung nicht mehr in angemessener Zeit durchgeführt werden kann. Diese spezielle Software generiert dann zum Beispiel innerhalb des Backup-Servers virtuelle Vollsicherungen, um eine Recovery zu beschleunigen. Oder die Backup-Software ist vom Design her auf inkrementelle Sicherungen ausgelegt, die Datenbank ist schnell und effektiv genug, um aus reinen inkrementellen Sicherungen eine Voll-Recovery zu generieren. Ein Full-Restore ist also genau so schnell wie bei herkömmlichen Produkten.



 
 

Reverse Incremental Backup

Das Reverse Incremental Backup ist mit der Incremental Forever Technologie verwandt. Und genau diese Methode soll verbessert werden. Aber wo liegt der Nachteil bei Incremental Forever? Die Sicherung, das Backup an sich, ist ideal. Immer nur die Änderungen werden generiert und übertragen, der Speicherplatz für die Sicherung ist klein. Aber beim Restore von großen Datenmengen, der Voll-Rücksicherung, hat das Incremental Forever einen klaren Nachteil. Je nach dem wann die letzte virtuelle Vollsicherung erstellt wurde, werden sehr viele inkrementelle Teilstücke für einen Full-Restore (zum Beispiel nach einem Datenverlust) benötigt. Und dies dauert deutlich länger, also wenn nur eine Vollsicherung vorhanden wäre. Und genau dort setzt die Reverse Incremental Technologie an: Die inkrementelle Sicherung wird sofort im Backupserver (oder Medienserver) in die letzte Vollsicherung eingebaut. Es gibt also nur noch eine Vollsicherung und beim Fullrestore, egal an welchem Tag, wird nur die Vollsicherung benötigt. Also der schnellste Restore und die schnellste Sicherung.
Aber warum macht das nicht jeder? Der Nachteil ist der große Aufwand für den Backupserver. Dieser muss extrem viele Daten bei jeder Sicherung bewegen. Und dieses Verfahren ist nur bei einer festplattenbasierten Sicherung möglich. Ansonsten müsste ja bei jedem Backup das komplette Band auf ein anderes kopiert und leicht verändert werden.
Aber wenn man jetzt beim "Reverse Inkremental" auf einen älteren Stand zurück möchte? Die Backup-Software muss natürlich auch die inkrementellen Sicherungen aufbewahren und verwalten. Wird also eine alte Datei benötigt, so wird diese aus einer inkrementellen Sicherung heraus genommen.
Zusammenfassung: Ideal für einen schnellen Restore bei großen Datenmengen, wenn nur inkrementelle Sicherungen durchgeführt werden können.
Welches Verfahren ist denn jetzt das Richtige für mich? In unserer Schulung zum Thema Datensicherung im heterogenen Umfeld erläutern wir die Vor- und Nachteile und gehen detailliert auf Ihre Fragen ein.



 
 

Backupverfahren: LAN-Backup, LANfree-Backup, Serverless-Backup

Es gibt unterschiedliche Verfahren um eine Backuplösung aufzubauen. Die einfachste Variante ist der Einbau eines Bandlaufwerkes in einen Server. Dieser Server sichert nur seine eigenen lokalen Daten. Dieses Verfahren wird hiernach "lokales Backup" genannt. Soll dieser Server auch die Daten von anderen Rechnern sichern, so liegt ein "Netzwerkbackup" vor. Die Daten werden über das LAN vom Backupclient (dies kann auch ein Server sein) zu einem Backupserver geschickt. Treten Probleme mit der Übertragungsgeschwindigkeit des Netzwerkes auf, so kann auf das so genannte "LAN-free" Backup ausgewichen werden. Hierbei liegen Storage, Server und Backuphardware in einem "Storage Area Network" (SAN) und die Daten werden von allen Backupclients direkt zur Tapehardware geschickt. Gibt es Probleme mit der Performance des Servers, so kann noch auf das "Serverless-Backup " ausgewichen werden. Hierbei werden die Daten direkt vom Storagesubsystem über die "Storage Area Network" Hardware zur Tapehardware geschickt. Weder LAN noch der Produktionsserver werden belastet.



 
 

Angebote der Stor IT Back zum Thema Backup und Recovery

Angebot Quest NetVault
Quest NetVault Starter und Enterprise
Windows, Unix, Linux, Mac
opt. Agents für Exchange, MS-SQL, Oracle, ...
ab 1.399,00 Euro
zzgl. MwSt.
Angebot Quantum Scalar i3
Quantum Scalar i3 Tape Library mit LTO7 / LTO8 / LTO9
bis zu 12 Laufwerke (bei 3 Erweiterungsmodulen)
50 bis 200 Medien pro System
ab 10.207,00 €
zzgl. MwSt.
Angebot actidata Kodiak 3416 und 6807
actidata actiLib Kodiak 3416 / 6807
Library mit 40 bis 640 Slots modular
maximal 42 / 48 Tape Laufwerke (3 / 6 in der Basis)
ab 7.759,00 Euro zzgl. MwSt.
Projektpreis möglich!
 
 
Zurück zur Übersicht
Backup und Recovery
Übersicht der Angebote
Kontakt zur Stor IT Back
Suche auf der Webseite