Was ist wichtiger: gute Skalierbarkeit oder Performance?

Wenn ein System so groß ist, dass man sich bei einem zusätzlichen Server für die Verarbeitung der Prozesslogik überlegen muss, ob auch ein zusätzlicher Server für die Präsentationslogik benötigt wird (beide sind unterschiedlich skalierbar), dann handelt es sich um eine Anwendung, die ausreichend groß und wichtig ist, um einen gewissen Grad an Redundanz, Failover-Funktionen, Lastausgleich und so weiter zu erfordern. Und das bedeutet unter anderem Clustering mit gemeinsamem Material.

Am Ende erhält man also eine monströse Architektur. Dabei sind zum Auffinden eines Fehlers zwei oder drei XML-Transaktionen erforderlich, mindestens drei logische Server, die alle auf derselben Hardware laufen können, und jede Menge Überwachungs-Software. Welch ein Chaos!

Man kann sich natürlich vornehmen, einfach die Anwendungs-, Präsentations- und Datenzugriffslogik in eine gemeinsame Schicht zu legen. Wenn der Rechner abstürzt, geht die betreffende Sitzung eben verloren.

Nur werden den Kunden heute Verfügbarkeiten von 99,9 Prozent und mehr vertraglich zugesichert, zusammen mit den zugehörigen SLAs und der entsprechenden Performance-Metrik. Die Anwendungen müssen also gezwungenermaßen schnell, skalierbar und robust sein. Doch bedauerlicherweise schließen sich hohe Skalierbarkeit und Robustheit einerseits und enorme Schnelligkeit andererseits gegenseitig aus.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

14 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

2 Tagen ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

2 Tagen ago