IBM und Network Appliance sind eine strategische Geschäftsbeziehung für ihr Storage-Business eingegangen, zu der auch die Vereinbarung eines OEM-Abkommens gehört. IBM ist damit in der Lage, unter seinem Label die Network Appliance-Lösungen für Unified Storage, NAS und iSCSI/IP-SAN zu verkaufen. Neben der FAS-Serie zählen dazu auch die Nearstore-Systeme, die V-Series sowie das Software-Angebot. Die Hersteller wollen damit Lösungen für „Information on Demand“ im Markt etablieren und gleichzeitig IBMs Storage-Portfolio erweitern.
Die Applikationen von Network Appliance sollen künftig stärker in IBM Tivoli Storage Manager integriert werden. Dieses Tool ist eine Backup und Recovery-Lösung für Network Appliance-Produkte und ein zentrales Element der IBM Totalstorage Open Software-Familie. „Für Kunden könnte die Wahl bei Information Management und Storage nicht eindeutiger sein – offene Lösungen mit Innovationen auf Systemebene von IBM und Network Appliance oder proprietäre, punktuelle Lösungen von EMC“, sagte Andy Monshaw, General Manager, IBM Storage Systems.
Das Speichern von Informationen in einer von „On Demand“ geprägten Umgebung ist kritisch, da Kunden einer wahren Daten-Sintflut gegenüber stehen. „Information on Demand“ kann dabei helfen, die Bereitstellung von Informationen weitgehend zu bündeln und eine bessere Ausrichtung auf Geschäftsprozesse zu erreichen.
Neueste Kommentare
1 Kommentar zu IBM und Network Appliance gemeinsam gegen EMC
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Alles Humbug
Die ganze Rederei über diese Systeme geht an einem großen Teil des Marktes vorbei. Warum?
Die Datenspeichermenge nimmt immer weiter zu. Doch die Transferraten leider nicht. Ich habe viele Speichersysteme im Einsatz gehabt und gesehen. Kaum ein Profisystem hat für mittlere bis große Datenmengen ’sustained‘ Transferraten von 100MB/s im Schreiben erreicht.
Ich möchte sogar einmal davon ausgehen, dass mehr als 25MB/s von keinem der mittleren Systeme dauerhaft beim Schreiben überschritten wird.
Woran liegt es? Es gibt praktisch keine Festplatten, die ausreichend schnell sind. 15.000 rpm und echte 5ms sind alles, was heutige Systeme bringen.
Das stagniert seit mehreren Jahren. Die Speicherdichte steigt, aber die magnetischen Transferraten sind am Ende.
Wer forscht? Niemand! Man kämpft nur kostenseitig um die 50ct pro GB Marke.
Das ist sehr einseitig und dumm! Wer 0,5ms Zugriffszeit und 500MB/s sustained Transfer (z.B. mit 4 Armen und 40 gleichzeitig betriebenen Köpfen) erreichen würde, wäre der King.
Aber alle sind da nicht innovativ genug.
Gruß
George