dataoptimizer-banner







Herausforderung

Daten altern schneller als man glaubt! Dateien, die heute noch als „heiß“ eingestuft werden und auf die permanent zugegriffen wird, sind morgen schon „kalt“ und nicht mehr in Verwendung. Denken Sie an TV und Medien – nichts ist älter als die News von gestern, aber die Daten werden trotzdem aufgehoben. Medizinische Daten wie Röntgenbilder sind immer nur dann heiß, wenn der Patient zu einer Kontrolle kommt - dazwischen sind sie jahrelang kalt. Auch in Industrie Unternehmen wird auf viele Daten über Monate und Jahre hinweg nicht mehr zugegriffen - damit werden sie nicht genutzt, sondern nur verwaltet. Das kostet Geld, denn die Daten liegen meist auf teurem Primärspeicher. Messungen ergeben folgendes Bild: 15% sind Hot Data und werden aktiv im ersten Monat abgefragt. 35% sind Warm Data und werden im Zeitraum von 1 bis 6 Monaten bereits seltener aktiv genutzt. 50% sind als Cold Data inaktiv, das ist nach rund 6 Monaten der Fall.

Die IT weiß, dass ein Großteil der Daten alt und kalt sind, allerdings fehlt es ihr an den Werkzeugen, regelmäßig den Primärstorage zu bereinigen und Daten auf billigeren Speicher oder in die Cloud auszulagern. Außerdem möchten die Fachbereiche über ihre gewohnten Applikationen auf ihre Daten zugreifen und nicht über gesonderte Zugriffspfade nach Altdaten suchen. Daher wird wieder immer wieder kurzfristig Speicher in Form von teuren SSDs zugekauft – ein Teufelskreis.


data-growth

Die Lösung: Transparentes File Tiering für NetApp Storage mit DataOptimizer

Der DataOptimizer lagert wenig bis gar nicht benutzte Daten automatisch und regelmäßig aus. Damit wird der NetApp Storage optimiert, während Benutzer und Applikationen wie gewohnt auf alle Dateien zugreifen können.



Funktionsweise DataOptimizer

Mit dem DataOptimizer bekommt die IT ein Werkzeug, das alle dargestellten Herausforderungen auf einmal löst: Der NetApp Storage kann schon vorab mit dem DataAnalyzer (ebenfalls eine Software von ProLion) durchsucht und analysiert werden. Diese Ergebnisse lassen bereits das Einsparungspotenzial erkennen, welches in der Folge durch den DataOptimizer realisiert werden kann, indem wenig bis gar nicht benutzte Dateien automatisch auf billigeren Speicher ausgelagert werden. Dabei wird ein policy-basierendes Regelwerk eingesetzt und auch die Perioden sind individuell einstellbar. Die Auslagerung der Daten folgt dem Prinzip des File Tiering: oft genutzte Daten werden auf einem schnellen Speicher wie SSDs vorgehalten. Seltener genutzte Daten kommen auf einen weniger performanten und billigeren Speicher wie SATA Platten oder werden in die Cloud ausgelagert.

Für die Benutzer und Applikationen bleibt der Zugriff auf die Dateien transparent und unverändert. Das ermöglicht die Methode des Stubbing / Verknüpfens: Die Datei wird zuerst auf den Sekundärspeicher kopiert und danach die Originaldatei auf dem Primärspeicher durch einen Link mit den Header-Informationen (Stub-File) ersetzt. Benutzer und Applikationen können weiterhin über den Link transparent auf die gewünschte Datei zugreifen. Dabei wird der Datenzugriff über das Stub-File an den Sekundärspeicher weitergeleitet und die Datei direkt vom Sekundärstorage (path-through access) an den Benutzer oder die Applikation zugestellt.







Preis Modell

DataOptimizer wird in TB auf Basis der bewegten Kapazitäten lizensiert: Nur jenes Datenvolumen, welches durch den DataOptimizer vom teuren Speicher auf den günstigen Speicher ausgelagert wird, zählt für die Berechnung der Lizensierung.



Vorteile

  • Der NetApp Storage wird regelmäßig bereinigt, das senkt die Kosten und erhöht die Performance. Auch Backup und Restore sind schneller durchgeführt
  • Der DataOptimizer setzt die Ergebnisse des DataAnalyzer um
  • Daten werden selektiv verwaltet und sind damit besser nutzbar
  • File Tiering berücksichtigt viele verschiedene Dateiattribute wie z.B. Alter, Größe und Type der Dateien. Das Prinzip: wichtiges auf schnellen Speicher, der Rest auf billigere
  • Mit der Methode Stubbing / Verknüpfen können Benutzer und Applikationen ohne Unterbrechung wie gewohnt weiterarbeiten und transparent auf ihre Daten zugreifen
  • Automatischer regelbasierter Prozess des DataOptimizer entlastet die IT von Routinetätigkeiten
idea