Vor kurzem beleuchtete ein hier erschienener Artikel „Wege aus dem Datenchaos: Storage als Dienstleistung“, in welcher Weise immer umfangreichere Datenmengen die Speicherverwaltung zunehmend erschweren. Es wurden die verschiedenen Komponenten vorgestellt, mit denen Speicherplatz auf lange Sicht als eigenständige Dienstleistung angeboten werden könnte. Der steigende Bedarf in diesem Bereich hat jedoch viel direktere und unmittelbarere Auswirkungen auf der Hardware-Ebene als im Bereich der Datenverwaltung.
Eine kurzfristige Möglichkeit, die Speicherkapazität zu erhöhen, besteht darin, mehr Speichermedien zu integrieren. Da sich die Speichervolumen jedoch alle ein bis zwei Jahre verdoppeln, ist diese Lösung in ohnehin beengten Server-Räumen oder für Kunden von Hosting Providern, die nach Rack-Einheit abrechnen, eher ungeeignet. Zudem wären die Controlling-Abteilungen nicht sehr glücklich, wenn sich die Speicherkosten von Jahr zu Jahr verdoppelten. Daher haben die Anbieter von Disk-, Band- und optischen Speichermedien auf die neuen Gegebenheiten reagiert, indem sie die Speicherdichte erhöhten. So können auf demselben Speicherplatz immer größere Informationsmengen abgelegt werden, bei annähernd gleichbleibenden Geschwindigkeiten. Auch der Preis pro Megabyte hat sich dieser Entwicklung angepasst und ist in derselben Zeit, in der sich Speicherbedarf und -kapazitäten verdoppelt haben, um die Hälfte gesunken. Doch es bleibt die Frage, wie lange dieser exponentielle Anstieg der Speicherdichte noch weiter betrieben werden kann, bevor sich grundsätzliche Grenzen auftun. Worin bestehen also diese Grenzen und welche Technologien haben die größten Chancen, Band-, Disk- und optische Speicherverfahren abzulösen, wenn diesen eines Tages die Puste ausgeht?
Mangel an Speicherplatz
„Es gibt bereits einige interessante Technologien für die Zukunft, doch handelt es sich bei diesen vorwiegend um Abwandlungen bereits vorhandener Technologien“, so Ian Selway, Produktmanager für Network Storage Solutions bei HP.
» Eines Tages werden wir uns mit des Phänomen des superparamagnetischen Effekts auseinandersetzen müssen, der dadurch entsteht, dass die Bits so nahe beieinander liegen, dass nicht länger zwischen ihnen unterschieden werden kann. « |
Rob Nieboer, Storage Strategist bei Storagetek |
„Bevor es nicht gelingt, eine Möglichkeit der atomaren oder holographischen Speicherung anzubieten, geht es doch immer nur darum, mehr Daten auf kleinerem Raum unterzubringen.“
„Ich bin immer wieder erstaunt, wie viele Daten auf einen herkömmlichen Magnetspeicher passen. Seit Jahren wird über andere Möglichkeiten gesprochen, aber es ist anscheinend noch kein Durchbruch in Sicht. Außerdem scheint es für die nächsten fünf oder sechs Jahre auch noch kein wesentliches Problem mit der Erhöhung der Speicherdichte [von Magnetmedien] zu geben“, meint Kevin McIsaac, Research Director beim Marktforschungsunternehmen Meta Group. „Und wer weiß, was in der Magnetspeicherung noch alles möglich ist. Selbst Bandspeicher bieten immer noch einen nicht unbeträchtlichen Nutzen, da sie sehr wenig kosten.“
Doch obwohl die Speicherbranche bisher immer wieder Wege gefunden hat, um die Speicherdichte auf Magnetplatten- und Bändern zu erhöhen, wird auch diese Möglichkeit irgendwann an eine Grenze stoßen. „Eines Tages werden wir uns mit des Phänomen des superparamagnetischen Effekts auseinandersetzen müssen, der dadurch entsteht, dass die Bits so nahe beieinander liegen, dass nicht länger zwischen ihnen unterschieden werden kann“, erklärt Rob Nieboer, Storage Strategist bei Storagetek.
Das bedeutet nun aber nicht, dass dieser ominöse superparamagnetische Effekt wie ein Damoklesschwert über der gesamten Speicherbranche hängt. Die Halbleiterindustrie hat beispielsweise einige dieser „grundsätzlichen“ Grenzen in den letzten Jahren erfolgreich überwunden und Moore’s Law – eine Verdoppelung der Speicherdichte circa alle 18 Monate – hat sich weiter bestätigt. Nieboer ist nach wie vor zuversichtlich, dass die Speicherbranche Wege finden wird, den superparamagnetischen Effekt zu umgehen, wenn dieser zu einem Problem wird.
„In nicht allzu ferner Zukunft werden wir die Möglichkeit der vertikalen Aufzeichnung nutzen können. Die Bits werden dann senkrecht auf der Diskoberfläche untergebracht, so dass eine höhere Dichte und ziemlich gute Rohdatenraten erreicht werden können. Das dürfte aber vermutlich noch mindestens zwei bis vier Jahre dauern“, so Nieboer. „Damit könnte dann übrigens auch die 3D-Aufzeichnung möglich werden, bei der vertikale Bits auf mehreren Ebenen abgelegt werden, wobei die Disk vielleicht nicht einmal mehr gedreht werden muss.“
Etwas skeptischer betrachtet Nieboer den praktischen Nutzen der holographischen Speicherung, bei der die Bits in einem dreidimensionalen Raum abgelegt werden. „Die holographische Speicherung steht soweit ich mich erinnern kann seit mindestens 10 Jahren kurz vor dem Durchbruch. Tatsächlich wird wohl schon seit über 20 Jahren daran gearbeitet – bislang ohne brauchbares Ergebnis.“
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…