Die Pandemie ist noch nicht überwunden und Covid-19 hat im vergangenen Jahr spürbar manche Dynamik gebremst – insbesondere in wirtschaftlichen Kontexten. In einem Bereich jedoch hat Corona für eine beispiellose Dynamisierung gesorgt. Die Rede ist von der Digitalisierung. Der Schwung dieser Entwicklung wird sich auch im kommenden Jahr am Beispiel mehrerer Trends zeigen. Sage hat fünf Technologietreiber identifiziert, die im Jahr 2022 spürbaren Einfluss auf betriebliche IT-Anwendungen haben werden:
Distributed Cloud und Edge Computing: Der Bedarf nach flexibel anpassbarer und per Cloud überall verfügbarer Software wird auch 2022 steigen. Nachdem die Entwicklung von großen monolithischen Systemen hin zu kleindimensionierten Microservices bereits klar erkennbar ist, zieht nun mit der Distributed Cloud auch die dahinterstehende Infrastruktur nach. Mit diesem Architekturansatz gibt es kein zentrales Rechenzentrum mehr, sondern die Rechnerlast wird auf kleine regionale Clouds aufgeteilt. Diese Infrastruktur von vernetzten und verteilten Servern bietet darüber hinaus die ideale Grundlage für ein Konzept, das sich daraus direkt ableitet: Edge-Computing. Ziel ist es dabei, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit spürbar zu verkürzen. „Der entscheidende Vorteil der Distributed Cloud und des Edge Computings ist neben der geringeren Latenz und besseren Performance eine höhere Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können. Das bedeutet: Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich. Die Nachfrage nach Distributed Cloud und Edge Computing wird 2022 vor allem durch datenintensive Anwendungen etwa im Bereich Machine Learning vorangetrieben.“ erläutert Oliver Rozić, Vice President Product Engineering bei Sage.
Process Mining und Data Mining: Auch im Jahr 2022 werden viele Unternehmen sich auf Unregelmäßigkeiten im Ablauf ihrer Prozesse einstellen müssen – allein schon durch unterbrochene Lieferketten und anhaltende Verknappungen an Bauteilen wie Microchips. Vor diesem Hintergrund wird Process Mining an Bedeutung gewinnen – gemeint ist: die systematische Analyse und Auswertung von Geschäftsprozessen. Process Mining hat seinen Ursprung im Data Mining, also der Analyse großer Datenbestände mit dem Ziel, neue Querverbindungen, Muster und Trends zu erkennen. Unternehmen können zum Beispiel mithilfe von Data Mining die Personalisierung ihrer Angebote erhöhen oder Warenkorbanalysen fahren. Beim Process Mining wird dieses Verfahren auf einen kompletten Prozess übertragen. Die darin auftretenden Ereignisse, so genannte Events, werden dabei logisch hinsichtlich ihrer chronologischen Reihenfolge miteinander verknüpft. Oliver Rozić erläutert: „Auf dieser Basis lässt sich ein Prozess visualisieren und in Echtzeit analysieren. Voraussetzung dafür sind allerdings voll digitalisierte Prozesse. Nur so ist es möglich, die für Process Mining nötige Datenbasis zu schaffen. Durch die Integration von KI wird es darüber hinaus möglich, noch fundiertere und insbesondere intelligentere, weil präskriptive Analysen zu erhalten. Stichwort Predictive Analytics. Zum Beispiel lässt sich damit aufzeigen, wann der Bedarf nach einem bestimmten Produkt künftig steigen wird und wie stark.“
ERP 2.0: Das Internet of Things (IoT) verbindet Software-Anwendungen, Maschinen, Anlagen und Werkzeuge zu einem integrierten und zunehmend autonom agierenden Gesamtsystem. Dieses produziert täglich eine riesige Menge an Daten. Damit entsteht eine wichtige Grundlage, um Unternehmensprozesse über die gesamte Wertschöpfungskette hinweg zu analysieren und auf Basis dieser Datenauswertungen zu verbessern und effizienter zu machen. Für sich genommen bieten die erfassten Daten aber noch keinen großen Mehrwert. Erst in einem größeren Kontext entfalten sie ihren Nutzen. Eine entscheidende Rolle spielt dabei das ERP-System, in dem sämtliche Betriebsinformationen zusammenlaufen und anschließend gefiltert und klassifiziert sowie an die nachgeordneten Anwendungen weitergeleitet werden. Der Datenfluss kann vor dem Hintergrund eines derart vernetzten Systems auch über die Grenzen eins Unternehmens hinausgehen und Lieferanten etwa mit einbeziehen. Das ERP-System wird so zu einer zentralen Softwareplattform und zu einem Integrations-Hub für das Internet der Dinge. „Damit wird zugleich eine neue Generation von ERP-Systemen in Unternehmen und Betriebe einziehen,“ kommentiert Oliver Rozić und betont gleichzeitig die Anforderungen: „Die entscheidende Voraussetzung für ERP 2.0 ist allerdings, dass sämtliche Komponenten einer IoT-Architektur über standardisierte Schnittstellen mit dem ERP-System integrierbar sind – angefangen bei der Datenbanktechnologie, über sämtliche Analysesysteme bis hin zu den entsprechenden Systemen auf Seiten externer Geschäftspartner, die ebenfalls Teil des Netzwerks sind.“
Ethisch verantwortete KI: Das Potenzial von KI ist nicht nur inzwischen bekannt, sondern es gibt unterdessen auch bereits sehr ausgereifte Systeme, in denen sich die Technologie täglich als praxistauglich unter Beweis stellt – wie zum Beispiel in der fortgeschrittenen Datenanalyse. Hier hilft KI, strategische Entscheidungen im Betrieb datengestützt zu fällen. KI wird damit zu einem mächtigen Instrument für Unternehmen, sich im Wettbewerb gegenüber den Marktbegleitern bestmöglich zu positionieren. Die aus KI-Systemen abgeleiteten Erkenntnisse sorgen aber auch immer wieder für kritische Rückfragen. Sie drehen sich etwa rund um die Themen Datenschutz und Compliance und kommen aus den Reihen der Stakeholder derer, die diese Technologie anwenden. „Vor diesem Hintergrund wird es künftig nicht mehr genügen, KI blindlings im Sinne der eigenen unternehmerischen Ziele zu nutzen. KI wird künftig auch nicht mehr nur unter rein funktionalen Gesichtspunkten, etwa im Blick auf Prozessverbesserung oder Automatisierung gesehen werden. Vielmehr wird diese Technologie zunehmend auch in ein direktes Verhältnis zu den Stakeholdern, denen sie eigentlich dienen soll, gesetzt. In diesem Zusammenhang geht es dann auch um Fragen der Fairness, der Gerechtigkeit im Wettbewerb und der Transparenz gegenüber Kontrollbehörden,“ kommentiert Oliver Rozić.
Datenhygiene: Der Wert von Daten als Basis für verlässliche Unternehmensentscheidungen wird zunehmend erkannt. Mit den exponentiell wachsenden Datenmengen, die Betrieben zur Verfügung stehen, wird aber auch die Frage nach der Datenqualität lauter werden. Im Kern geht es um die Vermeidung von Dirty Data. Eine Herausforderung vieler Unternehmen ist vor diesem Hintergrund die schiere Anzahl der betrieblichen Datenquellen und damit die Fragmentierung von Daten, die oft aus veralteten Systemen, in unterschiedlichen Formaten, Metadaten, Formularen und nicht mehr zeitgemäßen Datenbankformaten vorliegen. Im Ergebnis führt dies zu geringer Datenqualität. „Datenqualitätsmanagement wird deshalb zunehmend in den Fokus unternehmerischen Handelns rücken. Hierbei geht es darum, die Datenqualität von vorneherein sicher zu stellen und zu verhindern, dass Dirty Data überhaupt erst entsteht“, so Oliver Rozić. Eine Vorrausetzung für diese vorausschauende Form der Datenhygiene ist Data Governance. Immer mehr Unternehmen werden sich deshalb aller Voraussicht nach ein Regelwerk für den Umgang mit Daten im Unternehmen geben.
Fazit: 2022 wird das Jahr der digitalen Evolution
„Ab dem nächsten Jahr wird es für Unternehmen insbesondere darum gehen, bei der Digitalisierung die folgerichtigen und oft auch erforderlichen nächsten Schritte zu verfolgen, um sich für 2022 und darüber hinaus optimal aufzustellen. Nach Cloud folgt die Distributed Cloud, nach Big Data kommt zielgerichtetes Data und Process Mining, sowie ein stärkerer Fokus auf Datenhygiene. ERP braucht ein Update auf ERP 2.0 und statt KI-Potenzial einfach einzusetzen, rückt die ethische Verantwortung bei der künstlichen Intelligenz in den Fokus. Wir werden es im kommenden Jahr also mit einem Jahr der digitalen Evolution zu tun haben“, so Oliver Rozić.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…