Categories: Anzeige

Datenkapital: Goldschürfen im Datenzeitalter

Ob es sich um einen Autohersteller, eine lokale Bäckerei oder einen internationalen Investment-Hedgefonds handelt, jedes Unternehmen verfügt über mehrere Assets, aus denen es Wert schöpfen kann.

Diese können in Kategorien wie Inventar (Computer, Küchengeräte, robotergestützte Fertigungsanlagen), Mitarbeiter, Eigentum, Finanzen, Fahrzeuge und Investitionen eingeteilt werden. Es gibt auch Vermögenswerte, die aus geistigem Eigentum entstehen und zum Kapitalvermögen des Unternehmens zugerechnet werden.

Der Wert der Daten wird nun als etwas anerkannt, das diesen anderen Formen von Vermögenswerten ähnelt, und immer mehr Unternehmen erkennen die Möglichkeiten, die er ihnen eröffnet.

Was ist Datenkapital?

Der Wert der Daten kann aus Informationen über Kunden, die ein Unternehmen bedient, generiert werden. Diese Kunden haben sich beispielsweise dafür entschieden, dass die von ihnen erzeugten Daten von dem Unternehmen verwendet werden dürfen. Dies ist jedem bekannt, der sich in eine Mailingliste einträgt oder Cookies von einer Website zulässt.

Es können auch nicht-personenbezogene Daten generiert werden, wie Daten, die aus Maschinen, Lagerbeständen oder dem Verständnis von Prozessen in einem bestimmten Bereich des Marktes, den sie bedienen, stammen.

Ein Unternehmen kann auch eine dritte Partei, zum Beispiel eine Forschungs- oder Analystenagentur, beauftragen und externe Daten über einen Marktbereich sammeln. Diese Daten werden dann in der Regel mit den von ihnen selbst generierten Daten gemischt, und die Summe der beiden wäre dann die Art und Weise, wie das Unternehmen das Datenkapital im weiteren Sinne betrachtet.

Sind Daten heute das wichtigste Kapital eines Unternehmens?

Datenkapital wird zunehmend als ein immer greifbarerer Vermögenswert anerkannt, und wenn Unternehmen erst einmal die Macht der Informationen, die sie sammeln, vollständig verstanden haben und wissen, wie sie sie dann zur Umwandlung oder Verbesserung nutzen können, werden sie für die Geschäftswelt von grundlegender Bedeutung sein. Wenn Sie also in der Branche der Erzeugung und Bewertung von Datenkapital tätig sind, wie denken Sie dann darüber, sich die Macht dieses Kapitals zunutze zu machen?

Wir müssen uns an die Datenwissenschaft wenden, um die Antworten zu finden. Die Datenwissenschaft verwendet eine Reihe von maßgeschneiderten mathematischen Modellen zur Analyse und Vorhersage auf der Grundlage von Daten, die in ein Modell eingespeist werden. Das Modell muss trainiert werden, um das Verhalten zu verstehen, und das wird normalerweise durch die Verwendung von Algorithmen für die Erstellung von Parametern erreicht, an denen die gesammelten Daten gemessen werden können. Die Algorithmen können mit vielen verschiedenen Arten von Daten arbeiten, wobei zwei der wichtigsten zeitliche Datensätze sind: Echtzeit-Informationen, die durch den zu analysierenden Prozess erzeugt werden und kontinuierlich maschinelle Lernmodelle füttern, und Nicht-Echtzeit-Inputs, die normalerweise historische Echtzeit-Daten vermischen und Daten von außerhalb des zu überwachenden Prozesses einbeziehen, um einen maximalen Wert zu erzielen. Dieser Ansatz wird als tiefgehendes Lernen (Deep Learning) bezeichnet und ergänzt das maschinelle Lernen. Das Ergebnis der Algorithmen sind verwertbare Erkenntnisse und verständliche Informationen, die zur besseren Information menschlicher Entscheidungen genutzt werden können.

Landwirtschaft und Industrie 4.0

Soweit die Theorie – aber wie lässt sich diese auf die reale Welt übertragen? Nehmen wir das Beispiel der modernen Landwirtschaft, um den Prozess genauer zu untersuchen.

AeroFarms verwendet Daten zum Beispiel als zentrales Element seines Plans, den traditionellen Anbausaisons der Lebensmittelherstellung zu verbessern. Seine Wissenschaftler verwenden IoT-Sensoren (Internet der Dinge), die in der gesamten Anbauumgebung eingesetzt werden, um über 130.000 Datenpunkte bei jeder Ernte zu überwachen und das Anbausystem mit Hilfe vorausschauender Analysen ständig zu verbessern.

Die so generierten und analysierten Daten geben AeroFarms die notwendigen Informationen, um wirtschaftlicher und umweltfreundlicher zu arbeiten, den traditionellen Anbausaisonen zu trotzen, indem sie die lokale Landwirtschaft in kommerziellem Maßstab das ganze Jahr über ermöglichen, Einrichtungen näher an den Bevölkerungszentren errichten und die Rückverfolgbarkeit verbessern. AeroFarms beweist, dass all dies mit 95 Prozent weniger Wasser als bei der Feldbewirtschaftung von Lebensmitteln und mit 390 Mal höheren Erträgen pro Quadratmeter jährlich geschieht.

Ein weiteres gutes Beispiel für die Kombination von IoT und maschinellem Lernen zur Gewinnung umsetzbarer Geschäftserkenntnisse ist bei Otto Motors zu finden.

Das Unternehmen stellt Roboter her, die schwere Gegenstände in einer industriellen Umgebung transportieren. Diese selbstfahrenden Roboter sind mit IoT-Sensoren ausgestattet, die darüber informieren, wie sie sich am Arbeitsplatz bewegen. Dies ermöglicht die sicherste und effizienteste Arbeitsumgebung sowohl für die Roboter als auch für die menschlichen Arbeiter.

Es kann sein, dass zehn, zwanzig oder dreißig dieser Roboter gleichzeitig denselben Raum durchqueren, sodass eine Reihe von Algorithmen für maschinelles Lernen verwendet werden, um die Leistung der Flotten zu optimieren.

Deep Learning – die unbekannten Unbekannten

Aber was passiert, wenn das Szenario komplexer wird? Nehmen wir an, ein Unternehmen wie Otto Motors wurde gebeten, eine Flotte von 100 Robotern für einen Kunden zu installieren, was eine exponentielle Zunahme der gesammelten Datenmenge und der Komplexität bei der Verwaltung einer Flotte dieser Größe bedeutet. Sind die gleichen Algorithmen immer noch gültig?

Eine Lösung wäre, auf Deep Learning zu setzen. So könnten externe Daten wie Informationen, die sich auf die Umgebungsbedingungen in der Fabrik beziehen, wie Höhe, Wetter, Temperatur, Druck oder Feuchtigkeit das Gesamtbild vervollständigen. Verhält sich der Roboter anders, wenn die Temperatur in der Fabrikhalle um 5 Grad ansteigt, weil es ein heißer Sommertag ist, als an einem kalten Wintertag? Wenn bei einer größeren Flotte die Roboter aufgrund der optimalen Streckenführung im Lager nur Linkskurven machen, wie wirkt sich das auf den Verschleiß einzelner Komponenten aus? Würde sich dies auf künftige Konstruktionsparameter auswirken oder darüber informieren, welche Software-Upgrades die Roboterleistung erhalten oder erhöhen würden?

Dies sind keine Leistungsfaktoren, die sofort offensichtlich sind. Was Deep Learning aufdecken kann, ist das, was wir „unbekannte Unbekannte“ nennen. Dinge, die wir nicht einmal bemerkt haben, können die Leistung eines Roboters, der sich über eine Lagerhalle bewegt, beeinflussen, die aber aufgedeckt werden, wenn wir einen ergänzenden Datensatz über die von uns selbst generierte und gesammelte Informationslandschaft legen.

Welche Technologie benötigen Sie, um Ihr eigenes IoT-erweitertes Datenkapital zu aktivieren?

IoT-Daten, die das Rohmaterial dieses gesamten Prozesses darstellen, sind von Natur aus sehr unstrukturiert. Die Datenbanken, in denen sie gespeichert werden, sind keine traditionellen Matrixdatenbanken – sie existieren in einem sogenannten Datensee.

Die Speicher- und Verarbeitungsanforderungen eines Data Lake können je nach gewünschter Reaktionszeit abgestuft werden. Wenn die Daten in Echtzeit verarbeitet werden, dann werden Sie wahrscheinlich eine Kombination von GPUs verwenden, die Daten parallel verarbeiten können, was eng mit viel Speicher verbunden ist, wo die Daten aufgenommen und abgelegt werden. Die maschinellen Lernprozesse erfordern, dass Sie diese Rechen- und Speichergeräte in der Nähe des Ortes aufstellen, an dem die Daten erzeugt werden. In Verbindung mit den Netzwerken und der Infrastruktur, die zur Unterstützung einer Zweigstelle oder eines Remotestandorts eingesetzt werden, kann dies als Edge-Computing definiert werden.

Technologien auf dem Markt, die diese Fähigkeit bieten, werden als konvergent oder hyperkonvergent bezeichnet. Diese Plattformen, die virtualisiertes Rechnen, Netzwerk und Speicherung kombinieren, bieten skalierbare Plattformen für Cloud-Betriebsmodelle, wie sie von den Hyperskalierern Google, Microsoft und Amazon Web Services angeboten werden.

Diese Unternehmen bieten in der Regel alles aus einer Hand, was Sie benötigen. Aber es gibt zwei Herausforderungen bei diesem Ansatz.. Erstens ist ein Proof of Concept (PoC), der klein beginnt, mit einer Reihe von genau definierten Kosten verbunden. Wenn der PoC jedoch erfolgreich ist und zu einer vollständigen Einführung führt, dann werden die damit verbundenen Kosten schnell steigen. In diesem Szenario könnte es durchaus notwendig sein, die Anwendung und den Datensatz aus einer Hyperskalier-Umgebung in das eigene Unternehmen zurückzuholen. Dies gilt insbesondere für Edge-Computing-Umgebungen, in denen Kosten und Latenzzeiten mit zentralisierten Speicher- und Rechenmodellen, vor allem in großem Maßstab, nicht kompatibel sind.

Zweitens sind die Hyperscaler-Umgebungen sehr geschlossen, was den Zugriff auf die Daten betrifft; die Art und Weise, wie die APIs verwaltet werden, ist Eigentum von Unternehmen wie Google und Amazon und zudem nicht austauschbar.

Eine Alternative dazu kann mit der Art von Technologie eingerichtet werden, die Dell Technologies anbietet – insbesondere in Verbindung mit unserer Schwesterfirma VMWare. Sie können einen viel offeneren und flexibleren Ansatz für die Veröffentlichung von Updates und den Zugriff auf die mit den Daten verbundenen APIs verfolgen und ein Multi-Cloud-Betriebsmodell verwenden, bei dem Sie stets die Kontrolle über die am besten geeignete Umgebung für die Bereitstellung der Anwendung und des Datensatzes haben. Viele Unternehmen erkennen dies heute als den pragmatischsten, flexibelsten und kostengünstigsten Ansatz an.

Sobald ein Unternehmen begonnen hat, Daten auf die oben beschriebene Weise zu nutzen, kann es damit beginnen, den Wert der Daten zuzuschreiben und zu schätzen.

Wenn sie einmal zur Verbesserung eines Geschäftsprozesses verwendet wurden, kann das Unternehmen außerdem wählen, ob es die Daten verkaufen oder an andere Unternehmen exportieren möchte. Durch eine breitere Umgebung oder eine Art Konsortium lernt jeder von den besten Praktiken des anderen, und als Folge davon wird der Datensatz noch weiter ausgedehnt.

Die Auswirkungen der Grenzkosten und das Gesamtbild

Was wir jetzt mit dem IoT verstehen, ist, dass diese Technologie die Grenzkosten für die Messung von Dingen gegen Null tendieren lässt. Wenn Sie zum Beispiel eine Smartwatch tragen, sind die Grenzkosten für die Messung Ihrer Herzfrequenz nahe Null, weil die Funktion dafür in das Produkt eingebaut ist.

IoT-Technologien haben das Potenzial, die Grenzkosten für die Messung von Dingen auf nahezu Null zu reduzieren. Dies führt zu zwei Ergebnissen: Erstens wird die Häufigkeit der Messung erhöht, weil es keine Strafe dafür gibt. Zweitens werden Sie ein viel größeres Datenvolumen haben, aus dem Sie den Wert extrahieren können.

Wenn wir also etwas häufiger messen, gewinnen wir eine größere Genauigkeit in Bezug auf das Verhalten dieser Einheit. Die Daten durchlaufen dann einen maschinellen und/oder tiefgreifenden Lernprozess, so dass wir daraus verwertbare Erkenntnisse gewinnen können. Es ist diese potentiell seismische Auswirkung in jeder Branche und jedem Sektor, die erklärt, warum Daten als Kapitalvermögen betrachtet werden können und warum große und kleine Unternehmen das Datenkapital, das sie besitzen, bewerten sollten und wie sie dieses Vermögen am besten einsetzen, um entweder einen Wettbewerbsvorteil zu erlangen, die Kosten zu senken, eine neue Marktchance zu eröffnen oder….all das oben genannte. Daten sind im Informationszeitalter wirklich eine Goldgrube.

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

15 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

19 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

19 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

20 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

20 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

22 Stunden ago