Die IT-Branche gilt allgemein als besonders schnelllebig. In Wirklichkeit kann sie sich als äußerst traditionell erweisen. Im Rückblick betrachtet wird oft deutlich, dass neue Technologien oder Ansätze sich nur langsam durchsetzen konnten, sich dann aber hartnäckig halten, obwohl sie nicht mehr zeitgemäß sind. Oft handelt es sich dabei um sogenannte „Paradigmenwechsel“, wie sie ursprünglich vom Wissenschaftshistoriker Thomas Kuhn in seinem Buch „Die Struktur wissenschaftlicher Revolutionen“ beschrieben wurden. Kuhn erklärt auch, warum Paradigmenwechsel sich oft langsam vollziehen. Ein etabliertes Paradigma kann sich demnach so lange als „herrschende Meinung“ halten, wie es Ausnahmen, die nicht ins Paradigma passen, durch Zusatzerklärungen integrieren kann. So konnte sich das geozentrische Weltbild beispielsweise auch deshalb so lange halten, weil es Abweichungen erklärte, indem es (sehr komplexe) Epizyklenbewegungen in seine Erklärungen aufnahm.
Auch beim Tiering der Speicherinfrastruktur handelt es sich um ein gut etabliertes Paradigma, dessen unterstellte Nützlichkeit mit mehr und mehr Ausnahmen zu tun hat und in nicht allzu ferner Zukunft dem geozentrischen Weltbild in die Bedeutungslosigkeit folgen dürfte.
Eine scheinbar gute Idee
Das Tiering der Storage-Infrastruktur hat seine Existenz der Tatsache zu verdanken, dass bei den meisten Speicherlösungen die Geschwindigkeit des Datenzugriffs vom verwendeten Speichermedium abhängt und die Performance umso besser ist desto teurer das verwendete Speichermedium. Damit die Kosten nicht aus dem Ruder laufen, verteilen darum die meisten Speicherlösungen die Daten gemäß ihrer Zugriffsraten auf unterschiedliche Speichermedien, die entsprechenden Lagen oder Tiers entsprechen. Die Verteilung auf die verschiedenen Tiers erfolgt automatisch. Das Speichersystem überwacht die Frequenz der Zugriffe und platziert I/O-intensive Daten im Tier-1, weniger oft abgefragte Daten in Tier-2 und Daten in Tier-3, auf die so gut wie überhaupt nicht mehr zugegriffen wird und nur noch zu Archivierungszwecken gespeichert werden müssen. So sparen Anwenderunternehmen Geld, weil für Tier-2 und Tier-3 weniger performante und weniger kostspielige Speichermedien zum Einsatz kommen. Der Nachteil besteht entsprechend darin, dass viele Daten nur mit erheblicher Verzögerung zur Verfügung stehen.
Neue Anwendungen, neue Anforderungen
Die Nützlichkeit des Tiering-Paradigmas wird durch aktuelle Entwicklungen, insbesondere rund um Big Data, zusehends infrage gestellt. Dabei geht es nicht allein um die enorm ansteigenden Datenmengen, sondern um die Tatsache, dass mehr und mehr Anwendungen schnellen Zugriff auf diese großen Datenmengen benötigen, einen schnellen Zugriff, den Tier-2 und Tier-3 nicht bieten können. Das gilt beispielsweise für moderne Anwendungen, die Künstliche Intelligenz (KI) und Machine Learning (ML) einsetzen und etwa für Business Intelligence und Advanced Analytics, aber auch in Produktion und Logistik zum Einsatz kommen. Weil die enormen Datenmengen, die KI- und ML-Systeme nutzen, derart schnell zur Verfügung stehen müssen, wird das Tiering-Paradigma zusehends ad absurdum geführt. Immer größere Datenmengen müssen in Tier-1 gespeichert werden, sodass insbesondere Tier-2 nahezu nutzlos wird. Damit fällt allerdings ein wichtiger Rechtfertigungsgrund für das Tiering-Paradigma. Wenn nahezu alle Daten ohnehin in Tier-1 gespeichert werden müssen, werden die Kosteneinsparungen durch Tiering minimal.
Ein neues Paradigma
Neue Anforderungen und Anwendungen führen also zu einer Kostenexplosion, wenn Unternehmen weiter Lösungen nutzen, welche die benötigte Performance nur durch den Einsatz der teuersten Speichermedien erreichen können. Die Bedingungen, die ein neues Paradigma und entsprechende Speichersysteme erfüllen müssen, sind einfach zu formulieren, wenn auch technisch nicht einfach zu erfüllen. Das Tiering-Modell muss durch eine Plattform ohne traditionelles Tiering ersetzt werden, welche die Performance von Tier-1 ohne die entsprechenden Kosten bietet, ein System also, das die Performance von Tier-1 mit preiswerteren Speichermeiden erzielen kann.
Eric Burgener, Research Vice President bei IDC, hat die Anforderungen an ein Storage-System der neuen Art folgendermaßen formuliert:
- Ein System, das konsistente Latenzen von unter einer Millisekunde im Multi-Petabyte-Maßstab liefern kann.
- Eine äußerst widerstandsfähige Architektur, die Redundanzen und transparente Wiederherstellung sowohl innerhalb eines einzelnen Systems als auch über mehrere Systemkonfigurationen hinweg nutzt, um Disaster Recovery zu gewährleisten.
- Ein System, das sehr leistungsstarke Host-Verbindungen wie FC und NVMe over Fabrics unterstützt, damit die Leistungsfähigkeit des Systems nicht durch hohe Latenzen im Speichernetzwerk beeinträchtigt wird.
Check-Liste für den Storage-Einkauf
Die genannten Anforderungen sind in der Tat nicht einfach zu erfüllen. Es ergibt für Unternehmen allerdings wenig Sinn, sich mit weniger zufrieden zu geben oder weiterhin auf Lösungen zu setzen, die für gute Performance auf die teuersten Speichermedien angewiesen sind. Sie sollten beim Neukauf von Speichersystemen die von Burgener genannten Punkte auf ihre Check-Liste setzen. Die Hoffnung, durch das Festhalten am traditionellen Tiering-Paradigma einer Kostenexplosion entkommen zu können, wird sich als trügerisch erweisen, es sei denn ein Unternehmen denkt, es könne auf die neusten Anwendungen verzichten. Dann aber wird es über kurz oder lang gegenüber seinen Konkurrenten ins Hintertreffen geraten. Ein zu hoher Preis für das Festhalten an einem obsoleten Paradigma.
Neueste Kommentare
1 Kommentar zu Storage-Tiering – ein obsoletes Paradigma
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Was ist jetzt die Lösung?