Wann bekommen die Anwender endlich ein Terabyte Speicherkapazität am Desktop? Die Frage ist dem Cheftechniker Hu Yoshida von Hitachi Data Systems (HDS) nicht fremd. Der Trend scheint klar: Die wachsende Anzahl von gespeicherten Daten zu Hause oder im kleinen Büro verlangen nach viel Speicherplatz. Dabei geht es privat derzeit in erster Linie um Fotos oder Musikdateien, eventuell auch um Filmbibliotheken. Auch in kleineren Büros nimmt die digitale Ablage multimedialer Daten stark zu.
Das schreit nach Terabytes am PC. Doch Hu Yoshida – der Vorname aus Japan stammenden Kaliforniers steht für Hubert – widerspricht diesem Gedanken freundlich, aber bestimmt. Nach seiner Ansicht ist es sinnlos, sich mit der nötigen Technik zu befassen, wenn es doch „Speichern als Service“ geben kann. In seinem Blog vom 16. Juni dieses Jahres erklärt er dies: Tatsache sei, dass die Anwender Inhalte speichern müssten, um sie dann abzurufen. Voraussetzung dafür seien vertrauenswürdige Techniken und Dienste, die es heute aber in zunehmenden Maße gebe.
Dem privaten Speicherns in großem Stil, wie es gerne von manchen Marktforschern postuliert wird, erteilt Yoshida eine deutliche Absage. Der Grund: Bei großen Speicherkapazitäten zu Hause oder im kleinen Büro müsste man sich auch mit der gesamten Technik des Speicherns auf hohem Niveau beschäftigen. Das sei nicht möglich, aber auch nicht nötig. Dazu zitierte er die Situation seines Sohnes, der im Silicon Valley bei einem Startup arbeite. Obwohl die Jungs dort Techniker seien, hätten sie längst auf Speicher als Service zurückgegriffen.
Nach Erfahrungen des HDS-Cheftechnikers, der lange Jahre bei IBM im benachbarten Almaden Center in Santa Teresa, der Wiege der Speichertechnik, arbeitete, erneuert sich die Technik des Speicherns in einem Zyklus von etwa drei bis vier Jahren. Dabei geht es nicht nur um die wachsende Dichte und Kapazität der Speichermedien, sondern auch das dazugehörige Controlling. Was nützt einem das physikalische Speichern, wenn anschließend die Inhalte in eine entsprechende Sicherheitsgenauigkeit und Geschwindigkeit nicht abrufen können. Das Controlling sei, so Yoshida, ebenso wichtig wie die Steigerung der Speicherkapazität selbst.
Eine Tendenz zu regelrechten Speicherzentren zuhause oder im kleinen Büro sieht Yoshida nicht. Diese Meinung unterstreichen auch die jüngsten Entwicklungen bei Amazon oder MSN von Microsoft. So bietet Amazon beispielsweise heute schon 500 MByte gemanagte Mietspeicher in seinen Zentren als Service. Microsoft hält mit „kostenlosem“ Speicher im Rahmen seines Onlinedienstes MSN dagegen. Auch der Speicherplatz, der heute schon auf einem Service wie Google-Mail kostenlos angeboten wird, ist erstaunlich groß. Man kann wohl damit rechnen, dass die Anbieter dedizierter Server, wie Strato und 1&1, künftig in Ergänzung auch dedizierte Speicherzentren anbieten werden.
Suchmaschinenoptimierung (SEO) ist ein zentraler Faktor für den nachhaltigen Erfolg im digitalen Wettbewerb. Sie generiert…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.