Dem scheinbar unersättlichen Bedürfnis nach Speicherkapazität muss nicht zwingend mit neuer Technologie entgegengetreten werden. Laut Kevin McIsaac, Forschungsleiter der META Group Asia-Pacific, sollten IT-Unternehmen eine Art von Demand Management einführen.
„Am besten geht man nach wirtschaftlichen Kriterien vor, um mit einem Kostenverteilungssystem die gesamten Kosten für steigendes Speichervolumen auf die Geschäftseinheiten zu verteilen“, meint McIsaac. Hierdurch kann das Verhalten beeinflusst werden, und die IT-Abteilungen können den Bedarf reduzieren. Beispielsweise stellt man Regeln für die Verwendung spezieller Speicherressourcen (zum Beispiel keine Audio- oder Bilddateien auf Dateiservern) und Datenbereinigung durch Verdichtung und Archivierung auf. „Ohne Demand Management können die IT-Abteilungen unmöglich das Verhalten der Anwender beeinflussen“, so McIsaac.
Virtualisierung lockt mit dem Versprechen, einen feinkörnigeren Kontrollmechanismus für die für bestimmte Datentypen verwendeten Speicherarten zu ermöglichen.
Hat ein Kunde beispielsweise eine Frage zu seiner Rechnung, kann diese wahrscheinlich direkt nach Rechnungseingang schnell beantwortet werden. Es ist also vernünftig, diese Daten für eine oder zwei Wochen auf schnellen Speichermedien abzuspeichern, damit das Callcenter die meisten Anfragen schnell beantworten kann. Je länger die Rechnungen zurückliegen, desto unwahrscheinlicher ist eine Rückfrage durch den Kunden, sodass die Daten zu diesen Rechnungen mit der Zeit immer weiter auf langsamere und kostengünstigere Speicher ausgelagert werden können. Gegebenenfalls können oder sollen die Daten ganz gelöscht werden – das ist jedoch eine andere Angelegenheit.
Ohne Demand Management können die IT-Abteilungen unmöglich das Verhalten der Anwender beeinflussen. Kevin McIsaac, Forschungsleiter der META Group Asia-Pacific |
Gleiches gilt für die Tiefe der Details. Wenn ein Verantwortlicher nach Erhalt eines Berichts keine weiteren Daten abruft, wird er diese wahrscheinlich auch nicht später abrufen. Dies trifft für die meisten Daten zu; der Unterschied liegt lediglich darin, wie schnell Daten veralten.
Analysten berichten, dass etwa 60 bis 70 Prozent der Daten auf Primärspeichern innerhalb eines Zeitraums von einem halben Jahr nicht abgerufen werden, so Mike Palermo, Geschäftsführer der Application Storage Manager Business Group von Storagetek. Dieser Ineffizienz kann jedoch nur durch Automatisierung der Datenspeicherung auf dem Primärspeicher sowie des Transfers auf andere Speicher entgegengewirkt werden, wenn eine Senkung der Betriebskosten erzielt werden soll.
Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…
Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…
Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.
Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…
Kontinuierliche Content Produktion und Markenaufbau sind essentieller Pfeiler von langfristigen Unternehmenserfolg. Das ist mittlerweile auch…
KI-Funktionen beschleunigen die Erholung des PC-Markts. Der Nettogewinn legt um 44 Prozent zu, der Umsatz…