Wenn ein System so groß ist, dass man sich bei einem zusätzlichen Server für die Verarbeitung der Prozesslogik überlegen muss, ob auch ein zusätzlicher Server für die Präsentationslogik benötigt wird (beide sind unterschiedlich skalierbar), dann handelt es sich um eine Anwendung, die ausreichend groß und wichtig ist, um einen gewissen Grad an Redundanz, Failover-Funktionen, Lastausgleich und so weiter zu erfordern. Und das bedeutet unter anderem Clustering mit gemeinsamem Material.
Am Ende erhält man also eine monströse Architektur. Dabei sind zum Auffinden eines Fehlers zwei oder drei XML-Transaktionen erforderlich, mindestens drei logische Server, die alle auf derselben Hardware laufen können, und jede Menge Überwachungs-Software. Welch ein Chaos!
Man kann sich natürlich vornehmen, einfach die Anwendungs-, Präsentations- und Datenzugriffslogik in eine gemeinsame Schicht zu legen. Wenn der Rechner abstürzt, geht die betreffende Sitzung eben verloren.
Nur werden den Kunden heute Verfügbarkeiten von 99,9 Prozent und mehr vertraglich zugesichert, zusammen mit den zugehörigen SLAs und der entsprechenden Performance-Metrik. Die Anwendungen müssen also gezwungenermaßen schnell, skalierbar und robust sein. Doch bedauerlicherweise schließen sich hohe Skalierbarkeit und Robustheit einerseits und enorme Schnelligkeit andererseits gegenseitig aus.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…