Gastbeitrag Wir leben in einer wettbewerbsorientierten Welt. In einem perfekten Markt ist das Überleben des Stärkeren die Regel. Gute Unternehmen gewinnen mehr Kunden und verbessern ihre Dienstleistungen, während die schlechten in Vergessenheit geraten und am Ende ersetzt werden – besonders in der IT. Es drängt sich also der Gedanke auf, dass Technologie und Innovation nach den gleichen Regeln funktionieren.
Es gibt mehrere Gründe für diese Annahme: Leicht verwechselt man Produkte (Ergebnisse einer Geschäftsstrategie) und Technologie (einzelne Ergebnisse der Innovation, die sich zu Produkten zusammensetzen lassen). Als das iPhone begann, die Blackberrys sehr aggressiv zu ersetzen, wurde die Technologie und Innovation von Apple gelobt. Tatsächlich war es aber die Produktausführung, nicht irgendeine spezifische Innovation, die den Erfolg brachte. Die Schlüssel zum Erfolg des iPhones waren letztendlich die Kontrolle über die Lieferkette und die klare Konzentration auf das Design – und nicht etwa eine bahnbrechende neue Technologie.
Der zweite Grund, warum wir Technologie als wettbewerbsorientiert betrachten, ist die Tatsache, dass wir alle eine Welt lieben, die einfacher zu verstehen ist. Wenn neue Technologien alle alten Technologien ersetzen, dann können wir uns auf das Neue konzentrieren, es beherrschen und alles verstehen, was es zu verstehen gibt. Das ist viel leichter als herauszufinden, wie die neue Technologie alle bisherigen Technologien kombiniert und mit ihnen interagiert. Der Vertrieb liebt den Gedanken, dass neue Technologien alle alten Technologien ersetzen und alle Probleme lösen könnten. Es ist um einiges müheloser, ein einzelnes Wunderprodukt zu verkaufen, als das eigentliche Problem des Kunden zu analysieren und dafür die geeignetste Kombination von alten und neuen Technologien zu finden.
In Wirklichkeit ersetzt jedoch eine neue niemals eine alte Technologie, denn Technologie ist additiv. Neues wird auf dem Fundament des Alten aufgebaut. Altes profitiert von den Innovationen, die die neuen Dinge mit sich bringen. Innovation ist kein Nullsummenspiel. Alte Technologie kann verdrängt werden, muss sich vielleicht anpassen oder weiterentwickeln – aber sie wird nicht ersetzt.
Im Bereich der Computing-Infrastruktur zum Beispiel haben wir über die Jahre viel Innovation erlebt. Früher wurden Anwendungen auf reinen Hardware-Servern („Bare Metal“) implementiert. Dann kam die Hardware-Virtualisierung, und Workloads wurden auf virtuellen Maschinen implementiert. Darauf folgten Cloud-APIs, und man begann, systematisch diese virtualisierten Ressourcen zu nutzen. Und schließlich wurden Anwendungen auf Container und Container-Orchestrierungssysteme implementiert. Heutzutage sind (serverlose) Funktionen sehr beliebt, und immer mehr Anwendungen nutzen sie. Nichtsdestotrotz werden noch virtuelle Maschinen und sogar Bare Metal genutzt. Wir haben heute einfach einen größeren Werkzeugkasten und nutzen deshalb das geeignetste Werkzeug für die jeweilige Aufgabe.
Quelloffene Systeme (Open Source) spielen bei dieser additiven Technologie eine wichtige Rolle. Da quelloffene Systeme für alle verfügbar sind, fördern sie die Wiederverwendung und Integration. Durch Open-Source-Systeme können Organisationen bestimmte Technologien kommerzialisieren und so Innovationen vorantreiben. Viel wichtiger ist aber, dass Open-Source-Systeme es ermöglichen, die Technologie (Open-Source-Softwareprojekte) klarer von den Produkten (Geschäftsstrategie eines Unternehmens und ihre Umsetzung) zu entkoppeln. Bei den Technologien sollte man additiv und kooperativ denken, um den gemeinsamen Technologie-Pool zu vergrößern. Bei den Produkten hingegen sollte man wettbewerbsorientiert handeln und sich ein Geschäftsmodell ausdenken, um es dann besser als der Wettbewerb umzusetzen. Damit hat man die Chance auf ein größeres Stück vom Kuchen.
Offene Infrastrukturen, also Open-Source-Lösungen für die Rechen-, Netzwerk- und Speicherinfrastruktur, sind ein gutes Beispiel für die additive Natur von Technologie. Da es sich eben nicht um ein Nullsummenspiel handelt, baut jede Neuerung auf dem Erfolg der vorhergehenden Lösung auf und erhöht deren Wirkungskreis. So wurden beispielsweise durch das Hinzufügen von KVMs (Kernel Virtual Machines) Linux-Server allgegenwärtig. Und OpenStack hat den systematischen Zugriff auf KVM- und andere Infrastruktur-Virtualisierungstechnologien ermöglicht, so dass jedermann mit Open-Source-Lösungen öffentliche und private Clouds erstellen kann. Darüber hinaus bietet Kubernetes ein Best-Practice-Modell für die Implementierung von Anwendungen auf diesen virtualisierten Ressourcen.
Gerne würden wir glauben, dass die Welt einfach ist und neue Dinge alles Alte vollständig ersetzen – aber in Wirklichkeit ist es anders: Die eigentliche Herausforderung besteht darin, das Zusammenspiel der Einzelteile zu verstehen und sie zu einem Ganzen zusammenzufügen.
Der von zahlreichen Ländern wegen der Coronakrise eingeführte Lockdown und die damit verbundene soziale Distanzierung haben neue Rekorde im Online-Videoverkehr gebracht. Erfahren Sie in diesem Webinar, wie Sie Daten untersuchen und quantifizieren, um die Belastung von Netzwerken und CDNs einzuschätzen.
Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…
Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…
Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.
2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…
Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…
NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.