Wenn ein System so groß ist, dass man sich bei einem zusätzlichen Server für die Verarbeitung der Prozesslogik überlegen muss, ob auch ein zusätzlicher Server für die Präsentationslogik benötigt wird (beide sind unterschiedlich skalierbar), dann handelt es sich um eine Anwendung, die ausreichend groß und wichtig ist, um einen gewissen Grad an Redundanz, Failover-Funktionen, Lastausgleich und so weiter zu erfordern. Und das bedeutet unter anderem Clustering mit gemeinsamem Material.
Am Ende erhält man also eine monströse Architektur. Dabei sind zum Auffinden eines Fehlers zwei oder drei XML-Transaktionen erforderlich, mindestens drei logische Server, die alle auf derselben Hardware laufen können, und jede Menge Überwachungs-Software. Welch ein Chaos!
Man kann sich natürlich vornehmen, einfach die Anwendungs-, Präsentations- und Datenzugriffslogik in eine gemeinsame Schicht zu legen. Wenn der Rechner abstürzt, geht die betreffende Sitzung eben verloren.
Nur werden den Kunden heute Verfügbarkeiten von 99,9 Prozent und mehr vertraglich zugesichert, zusammen mit den zugehörigen SLAs und der entsprechenden Performance-Metrik. Die Anwendungen müssen also gezwungenermaßen schnell, skalierbar und robust sein. Doch bedauerlicherweise schließen sich hohe Skalierbarkeit und Robustheit einerseits und enorme Schnelligkeit andererseits gegenseitig aus.
Neueste Kommentare
Noch keine Kommentare zu Was ist wichtiger: gute Skalierbarkeit oder Performance?
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.