Anzeige

Deduplizierung mit starren vs. variablen Blöcken

Leserfrage: Quantum hat anscheinend die Daten-Deduplizierung verbessert. Die neueste Appliance verspricht durch die Nutzung variabler Blöcke statt starrer 6k-Block-Deduplizierung eine dreimal bessere Ausnutzung der Speicher-Ressourcen. Wie genau darf man sich den Unterschied zwischen starren und varbiablen Blöcken vorstellen? Gibt es neben den genannten Vorteilen auch Nachteile und ist dies nun ein Weg, den künftig alle gehen?

Antwort Doc Storage:

Naturgemäß erzielt eine Deduplizierung mit variabler Blockung deutlich bessere Ergebnisse, da sich die Suche nach redundanten Abschnitten in den zu speichernden Daten wesentlich besser an diese anpassen lässt. Die Steigerung der Reduzierung auf bis zu 90 Prozent halte ich zwar für sehr optimistisch, allerdings dürfte eine deutliche Verbesserung gegenüber den im Artikel angegebenen 73 Prozent möglich sein.

Anzeige
Aber – keine Verbesserung ohne entsprechenden Aufwand. Bei der Anwendung variabler Blockgrößen ist der Controller mit wesentlich höherem Rechen- und Überprüfungsaufwand beschäftigt als bei der relativ trivialen Methode mit festen Blöcken. Im schlimmsten Falle könnte dies negative Auswirkungen auf die Gesamtleistung des Systems haben. Da es sich beim betrachteten Gerät allerdings um eine Appliance für Backup-to-Disk handelt, dürfte der Leistungsverlust für den Nutzer vergleichsweise unwichtiger als die mehr als doppelt so gute Nutzung des Speicherplatzes sein.

Mit zunehmender Leistung der verwendeten Prozessoren und immer größer werdenden Datenbeständen dürften alle einschlägigen Hersteller in Zukunft versuchen, den Weg der variablen Blockgrößen zu gehen. Da dieses Verfahren allerdings wesentlich leistungsfähigere Analyseverfahren im Betriebssystem erfordert, werden vor allem die großen Hersteller mit entsprechend gut ausgestatteten Entwicklungsabteilungen die Vorreiter sein.

Gruß
Doc Storage

Anzeige