8 Minuten Lesezeit (1636 Worte)

Storage im Wandel der Zeit

Noch vor ein paar Jahren waren die Anforderungen übersichtlich, die Unternehmen an ein Storage stellten. Es sollte vor allem schnell, zuverlässig und relativ preisgünstig je Gigabyte sein. Heute unterliegen Storages ganz anderen Kriterien. 

Von Anfang an sind Computer auf externe Speicher angewiesen, auf denen die auszuführenden Programme, die zu verarbeitenden Daten und die Ergebnisse der Verarbeitungdauerhaft gespeichert werden. Von der Lochkarte von Hollerith 1887 bis zu heutigen modernen Speichersystemen war es ein weiter Weg.

Im Zuge der Entwicklung wurden die Geräte immer kleiner und schneller. Manch einer erinnert sich noch an die Winchester-Platten im Format einer Waschtrommel, deren Speicherkapazität bei einem Tausendstel einer modernen 2,5-Zoll-Festplatte lag. Auch die Leistung wurde permanent gesteigert, konnte jedoch mit denen von CPU und Arbeitsspeicher nicht mithalten. Diese Lücke konnte erst in den letzten Jahren durch den Einsatz von SSDs und Flash-Speichern weitgehend beseitigt werden.

Welche Speichertechnologien werden heute verwendet?

Nach dem Schwenk 2004 von Parallel-SCSI auf Serial-Attached-SCSI stiegen alle paar Jahre die Übertragungsgeschwindigkeiten, 2015/2016 haben fast alle Hersteller auf SAS III mit 12 Gbit/s umgestellt. Als Speichermedien kommen dabei zwei Produkte zum Einsatz: Flash-basierte Speicher in Form von Modulen oder SSDs und herkömmliche Festplatten als SAS-Disks und sog. NLSAS-Disks.

Flash-Module, auch Flash-EEPROM, gibt es in verschiedenen Bauformen, entweder als eigenständige Module oder als SSD mit Kapazitäten von 1-6 TB. Sie besitzen keine mechanischen Teile mehr und sind von der Stromaufnahme und Kühlung wesentlich günstiger als herkömmliche Festplatten. Flash-Module sind die zurzeit schnellsten Speichermedien. Sie werden als Cache-Erweiterung oder als Disk eingesetzt.

Als Festplatten kommen hauptsächlich SAS-Disks mit 10.000 und 15.000 UpM in 2,5-Zoll-Bauform vor. Diese Disks verfügen über eine SAS-III-Schnittstelle. Sie sind mit Kapazitäten von 300 GB bis zurzeit 1,6 TB erhältlich. Als NL-SAS werden die hochkapazitativen 3,5-Zoll-SATA- Disks mit bis zu 8 TB bezeichnet. Damit SATA-Disks in einem modernen Storage verwendbar sind, wurden sie mit einer SAS-Schnittstelle versehen, daher der Name NearLine-SAS. Sie dienen hauptsächlich Archivierungszwecken.

Anforderungen und Auswahl moderner Speichersysteme

An moderne Speichersysteme werden viele neue Anforderungen gestellt, seien es Big Data, Storage as a Service,Cloud, Hochverfügbarkeit oder Virtualisierung, um nur einige zu nennen. Den steigenden Ansprüchen stehen allerdings sinkende Budgets gegenüber. So wird die Auswahl und Zusammenstellung eines geeigneten Speichersystems zu einer immer komplexeren Aufgabe und der Druck auf die IT-Verantwortlichen wächst in zunehmendem Maße.

Aus der Vielzahl von Speichersystemen das für das Unternehmen passende zu finden, ist mittlerweile ein komplexer Prozess geworden. So gilt es neben dem geschätzten Datenwachstum der nächsten Jahre alle Anforderungen an das neue System zu sammeln und in geeigneter Form auszuwerten und auszuwählen. Durch die Vielzahl der Funktionen und das fast unüberschaubare Angebot kommt es dabei immer wieder zu Fehlgriffen ‒ das Unternehmen investiert in ein Speichersystem, das die geforderte Leistung nicht erbringt.

Hier eine Auswahl der zu berücksichtigender Faktoren:

• zu erwartende IO-Last
• Kapazität heute, in 1/2/3 Jahren
• Cache-Größen
• Hochverfügbarkeit (lokal, remote, synchron, asynchron)
• Funktionen (Snapshots, Tiering, Deduplikation, Kompression, etc.)
• physische Umgebung (Flächenbedarf, Stromverbrauch, Kühlung)
• Virtualisierung
• Administration

Durch die vielfältigen Funktionen der Speichersysteme ist alleine schon die Aufteilung der Hardware eine Herausforderung. SSDs und Platten müssen zu Einheiten gruppiert und konfiguriert werden, um jeder Applikation den schnellsten und dabei möglichst kostengünstigsten Speicher bereitstellen zu können.

Funktionen moderner Speichersysteme

Um die Anforderungen erfüllen zu können, haben die Hersteller nach und nach zahlreiche neue Funktionen in die Firmware integriert. Für die Datensicherheit und -sicherung werden Snapshots und Volume-Kopien lokal und remote verwendet. Damit lassen sich sehr schnell einfache und kostengünstige Sicherungen erstellen, die aber nicht das Backup oder die Archivierung ersetzen können.

Mit Deduplizierung und Komprimierung soll der verwendete Speicherplatz besser genutzt werden. Das ist aber nur teilweise möglich. Mittels Deduplizierung kann ein Unternehmen eine spürbare Reduktion des benötigten Speicherplatzes erreichen, wenn es darum geht, eine Vielzahl von gleichartigen Daten wie z.B. VM-Images zu speichern. Hier wird dann nur noch ein Image vollständig gespeichert, bei allen anderen nur die Abweichungen von dem Urabbild. 

Bei allen anderen Daten, strukturiert wie auch unstrukturiert, kann durch Deduplizierung kein Speicherplatz gewonnen werden; hier versucht man es mit Kompression. Bei strukturierten Daten, zumeist Datenbanken, und einfachen Dateien wie Mails, Dokumenten usw. kann man hier gute Ergebnisse erzielen. Die Masse der Multimedia-Daten dagegen lässt sich nicht mehr komprimieren. Diese Daten werden von Haus aus häufig schon in einem verdichteten Zustand gespeichert.

Tiering verbindet die deutlich teureren Flash-Speicher mit den herkömmlichen Festplatten, um die Leistungsfähigkeit des Systems insgesamt zu erhöhen. Das System erkennt dabei die am häufigsten angeforderten Daten und verschiebt sie automatisch auf die schnellsten teuren Speichermedien, die weniger genutzten Daten wandern nach und nach auf die langsameren günstigen Medien.

Zusätzlich findet immer mehr die Virtualisierung im Speicherbereich Einzug. Sie ist teilweise schon ein unverzichtbares Instrument, um der wachsenden Datenflut und deren Applikationen den immer passenden Speicher zur Verfügung zu stellen.

Immer größere Festplatten und wachsende Datenbeständebringen die bewährten RAID-Gruppen an ihre Grenzen, das Recovern einer TB-Platte nimmt je nach Größe nicht nur Stunden, sondern mittlerweile Tage in Anspruch. Die Gefahr von Datenverlusten steigt damit überproportional. Um dieses Manko zu umgehen, implementieren die Herstellerals neueste Funktion das Erasure Coding. Dabei werden die Daten mittels einer mathematischen Formel fragmentiert und diese Fragmente mit einer konfigurierbaren Anzahl von Kopien an unterschiedlichen Stellen in einem Speicher-Array abgelegt. Beim Recover-Prozess braucht daher nicht mehr die gesamte Platte wieder hergestellt zu werden, nur die verlorenen Teile einer Datei werden wieder aufgebaut.

Wie sehen die Speichersysteme von morgen aus?

Versuchen wir einen Blick in die Kristallkugel zu werfen. Der Markt für herkömmliche Festplatten wird weiter ein-brechen, der Preisverfall bei den Flash-Speichern wird weiter zunehmen und sie werden in der nächsten Zeit die erste Wahl für schnelle Datentransferraten bleiben. So bieten heute alle Hersteller schon All-Flash-Arrays an. In den Laboren von IBM forscht man an Phase-Change-Memory-Bausteinen (PCM), sie sollen noch schneller als Flash-Bausteine sein und dabei günstiger als DRAMs. IBM will in nächster Zeit die ersten Module auf den Markt bringen.

Cloud-Dienste und -Anbieter werden zunehmen und damit einhergehend wird auch die Menge der gespeicherten Daten exorbitant wachsen. Täglich werden heute schon mehr als 2,5 Trillionen Bytes gespeichert, 90 % aller Daten wurden erst in den letzten 2-3 Jahren auf digitalen Medienabgelegt. Derzeit sind etwa 10.000 Exabyte weltweit gespeichert, bis zum Jahr 2020, also in nur 4 Jahren, soll sich dieser Wert vervierfachen auf über 40.000 Exabyte.

Dadurch wird nicht nur eine zunehmende Konsolidierung von Rechenzentren stattfinden, auch Übernahmen zwischen den Herstellern zeichnen sich ab. Es bleibt abzuwarten, ob sich dadurch Standardisierungen bei den Speichersystemen ergeben. Die Virtualisierung wird sicherlich weiter ausgebaut, gleichzeitig wird dabei die Administration von Speichersystemen vereinfacht und teilweise automatisiert werden.

Die Auswahl und Zusammenstellung eines komplexen Speichersystems wird immer aufwendiger werden. Hier bildet sich in der letzten Zeit ein neuer Beratungszweig heraus, um Kunden herstellerneutral und fachübergreifend beraten zu können

Backup/Restore/Archivierung

Gespeicherte Daten müssen kurz- bis mittelfristig gesichert und langfristig archiviert werden. Unter Backup versteht man die kurzfristige Sicherung der Daten auf anderen Medien. Hier kommen zumeist Datenbänder zum Tragen. Sie sind immer noch das günstigste Speichermedium je Gigabyte und in der Lage, Daten auch über längere Zeiträume sicher zu speichern. Die Speicherdichte auf den Bändern wird weiter zunehmen, auf den aktuellen LTO7-Bändern lassen sich bereits 6 TB unkomprimiert speichern und bei LTO8 soll dieser Wert verdoppelt werden. 

Interessant bei diesen Datenmengen sind die Restore-Zeiten im Desaster-Fall. Das Zurückschreiben von den Datenbändern auf die Festplatten geht zwar deutlich schneller als das Schreiben auf Bänder, für die schelle Wiederherstellung der Daten muss aber auch die IT-Infrastruktur entsprechend aufgebaut sein. Hochkapazitative Leitungen und mehrfache Anbindung sind hier Pflicht.

Weitere Probleme stellen sich bei der Archivierung von Daten. Die zum Teil exorbitant langen Aufbewahrungsfristen stellen die Unternehmen immer wieder vor neue Probleme. So müssen Geschäftsunterlagen mind. 10 Jahre aufbewahrt werden. In medizinischen und anderen Branchen steigen diese Fristen auf 30 und mehr Jahre. Die Auswahl geeigneter Medien ist dabei problematisch: Wer kann denn heute noch Daten von Datenträgern lesen, die älter als 10 Jahre sind, egal ob Band oder Festplatte? Die Speicher-Technologie hat sich hier komplett gewandelt.

Ein weiteres Problem bei der Archivierung ist die Wiederauffindbarkeit. Die Speicherhersteller bieten auch hier Lösungen an, die mit Katalogen, Indizes und Verschlag-wortung Daten z. T. automatisch versehen und damit wieder auffi ndbar machen, aber leider gibt es keinen Standard. Und die verwendete Technologie setzt wieder auf den bekannten Speichersystemen mit den gleichen bekannten Problemen auf.

Fazit

Die ökologischen Folgen durch den Bau von immer mehr Rechenzentren und Speichersystemen und deren Stromversorgung und Kühlung sind nicht absehbar. Schon heute stoßen wir teilweise an die Grenzen des noch Machbaren. Allein die Erzeugung des notwendigen elektrischen Stroms stellt heute schon in einigen Ländern ein Problem dar. 

Unternehmen und Behörden unterliegen gesetzlichen Vorgaben zur Speicherung und Aufbewahrung von Daten, die zum Teil unsinnig sind. Durch die zunehmende Vernetzung der Unternehmen untereinander und mit den Behörden reicht es aus, Daten eines Geschäftsvorfalls nur noch an einer Stelle zu sichern. Heute muss jedes Unternehmen für sich die Daten archivieren und die staatlichen Stellen sichern das Ganze dann noch einmal. Hier ist die Gesetzgebung dringend gefordert, die teilweise unsinnigen Fristen und Vorgaben entweder zu verkürzen oder abzuschaffen. 

Und auch die allgemeine Sammelwut von Daten im privaten Bereich, hauptsächlich von unstrukturierten Daten wie Fotos, Filmen usw. bewirkt ein immer Mehr an Speicherplatz. Jeder muss sich daher selber fragen, welche Daten er wirklich speichern muss und ob nicht weniger manchmal doch mehr ist. Jedenfalls wird das Thema weiter spannend und interessant bleiben.

Klaus Grote(info@ordix.de)

Isabell Rosenblatt hat noch keine Informationen über sich angegeben

 

Kommentare

Derzeit gibt es keine Kommentare. Schreibe den ersten Kommentar!
Dienstag, 23. April 2024

Sicherheitscode (Captcha)

×
Informiert bleiben!

Bei Updates im Blog, informieren wir per E-Mail.

Weitere Artikel in der Kategorie