Wenn ein System so groß ist, dass man sich bei einem zusätzlichen Server für die Verarbeitung der Prozesslogik überlegen muss, ob auch ein zusätzlicher Server für die Präsentationslogik benötigt wird (beide sind unterschiedlich skalierbar), dann handelt es sich um eine Anwendung, die ausreichend groß und wichtig ist, um einen gewissen Grad an Redundanz, Failover-Funktionen, Lastausgleich und so weiter zu erfordern. Und das bedeutet unter anderem Clustering mit gemeinsamem Material.
Am Ende erhält man also eine monströse Architektur. Dabei sind zum Auffinden eines Fehlers zwei oder drei XML-Transaktionen erforderlich, mindestens drei logische Server, die alle auf derselben Hardware laufen können, und jede Menge Überwachungs-Software. Welch ein Chaos!
Man kann sich natürlich vornehmen, einfach die Anwendungs-, Präsentations- und Datenzugriffslogik in eine gemeinsame Schicht zu legen. Wenn der Rechner abstürzt, geht die betreffende Sitzung eben verloren.
Nur werden den Kunden heute Verfügbarkeiten von 99,9 Prozent und mehr vertraglich zugesichert, zusammen mit den zugehörigen SLAs und der entsprechenden Performance-Metrik. Die Anwendungen müssen also gezwungenermaßen schnell, skalierbar und robust sein. Doch bedauerlicherweise schließen sich hohe Skalierbarkeit und Robustheit einerseits und enorme Schnelligkeit andererseits gegenseitig aus.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…