Virtualisierung verändert auch die Infrastruktur in Rechenzentren

Flache Hierarchien sind sicher keine hinreichende, aber doch eine notwendige Bedingung für Erfolg. Das gilt sowohl in der Unternehmensorganisation als auch in der IT-Infrastruktur, denn eine Reduzierung der Hierarchieebenen vermindert zwangsläufig die für Abstimmungen notwendigen Kommunikationsprozesse. Durch die geringeren Latenzzeiten werden die Entscheidungen beschleunigt und durch die kürzeren Wege wird die Qualität der Ergebnisse verbessert.

Flache Netzhierarchien sind überfällig. Durch Technologien wie Virtualisierung und durch die Architektur von Webanwendungen sind unter anderem die Lastspitzen nicht mehr so einfach wie früher abzuschätzen. Um hier auf der sicheren Seite zu sein, wird von den RZ-Verantwortlichen ständig die Zahl der Server und Speicher erhöht. Die Datenvolumina nehmen ohnehin kräftig zu. Bis jetzt liefen diese Entwicklungen, die nicht zuletzt auch durch IT-Dienstleistungskonzepte wie Cloud Computing, gefördert werden, auf den traditionellen Netzwerk-Infrastrukturen. Die Folge war eine immer größere Zahl von Hierarchieebenen und eine exponentiell ansteigende Kommunikationsinfrastruktur zur Steuerung dieses komplexen Gebildes.

„Bis zu 50 Prozent aller Ports in den heutigen Rechenzentren – und typischerweise gerade die teuersten – werden nicht benutzt, um Server oder Speicher mit Nutzern oder Nutzer mit anderen Nutzern zu verbinden, sondern sie dienen allein der Verbindung der Switches untereinander“, heißt es in einem White Paper des Netzwerkspezialisten Juniper (PDF). Entstanden seien dadurch komplexe Baumstrukturen für den Netzzugang, die Aggregation von Daten und die Verbindung der unterschiedlichen Ressourcen.

Letztlich sind solche komplexen Netze immens teuer und kaum noch sinnvoll zu managen. Dazu kommt ein hoher Energieverbrauch, der sich durch solche nicht mehr zeit- und funktionsgemäß dimensionierte Systeme ergibt.

Nanoelektronik für Network Fabrics

Die Lösung liegt wie auch anderswo in der IT in der Virtualisierung, mit der die heutige 3-Tier-Architektur abgeflacht und idealer Weise in eine eindimensionale Architektur verwandelt wird. Diese flache Architektur entsteht durch die Kombination mehrerer physischer 10-Gigabit-Switches zu einem logischen Super-Switch. Technologischer Vorreiter solcher „Network Fabrics“ war Juniper Networks mit seiner QFabric-Reihe. Mittlerweile sind viele andere gefolgt, so Cisco mit seinem FabricPath, Avaya mit Virtual Enterprise Network Architecture (VENA), Brocade mit dem Virtual Clustering Switch (VCS) und kürzlich auch Alcatel-Lucent mit der Mesh Architecture. Letztere kommt übrigens ganz ohne Core-Switch aus, indem sie direkte Server-Server-Verbindungen implementiert hat.

Mittlerweile wird die Daten-Aggregierung im Rechenzentrum noch weiter getrieben, indem die Network Fabrics mit Data Fabrics und Storage Fabrics zu sogenannten DataCenterBridging-Einheiten zusammengefasst werden. Diese werden zuweilen auch als Converged Enhanced Ethernet (CEE) bezeichnet.

Mit den Network Fabrics zieht eine neue Netzwerktechnologie in die Rechenzentren ein. Möglich wird das durch die immer kleineren Strukturen in der Mikroelektronik. Mittlerweile ist man im Größenbereich von 30 bis 40 Nanometern. Firmen wie Fulcrum und Broadcom bieten superschnelle Controller-Chips in 40-Nanometer-Technologie an, auf deren Basis 10-Gigabit-Switches gebaut werden können, die Latenzzeiten von einer Mikrosekunde aufweisen. In den Network Fabrics werden einerseits eigen entwickelte ASIC-Bausteine, andererseits aber auch immer mehr handelsübliche Controller-Entwicklungen wie der Trident-Chipsatz von Broadcom oder die FocalPoint Ethernet Switch Chips der Intel-Tochter Fulcrum eingesetzt.

Cloud-Computing als Nutznießer

Die Idee der Network- Fabrics beziehungsweise des DataCenterBridging (DCB) stellt die gesamte bisherige Switching-Technologie zur Disposition. Die positiven Folgen sind eine deutliche Verminderung des Energieverbrauchs und weniger Kosten. Was nun tatsächlich in Euro und Cent eingespart werden kann, hängt sicher vom Einzelfall ab. Verlässliche Zahlen liegen hier erst vor, wenn die Umsetzung in den Rechenzentren auf breiter Front begonnen hat. So viel kann man aber schon sagen: die neue IT-Rechenzentrums-Infrastruktur macht Cloud-Computing-Angebote erheblich einfacher und sicherer und zuweilen wohl auch erst möglich. Und ein letzter Punkt ist auch sehr wichtig: wo die gesamte RZ-Infrastruktur zur Disposition gestellt ist, da muss auch die IT-Sicherheitslage neu diskutiert werden.

ZDNet.de Redaktion

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

1 Tag ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

2 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

2 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

2 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

3 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

4 Tagen ago