Big-Data-Projekte brauchen die richtigen Werkzeuge

Big Data ist keine vorübergehende Mode, die nach einiger Zeit wieder aus der IT-Diskussion verschwindet. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: die explosionsartig zunehmenden Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeitanalysen.


Paul Griffin, der Autor dieses Gastkommentars für ZDNet, ist ist Connect Product Manager bei Progress Software (Bild: Progress Software).

All diese Aufgaben sind nicht leicht zu bewältigen. Sie eröffnen andererseits aber auch Möglichkeiten, die sich Firmen nicht entgehen lassen sollten: Sowohl die Daten aus internen Beständen, als auch die aus externen Quellen stammenden Datenmengen, etwa von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, lassen sich für neue, geschäftsrelevante Erkenntnisse, auswerten.

Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, die Datenberge mit den richtigen Methoden und Werkzeugen zu bearbeiten. Was bei Big Data „Big“ bedeutet, ist dabei für jedes Unternehmen unterschiedlich. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data dagegen erst bei einer Datenmenge von mehreren Hundert Terabyte.

Gesucht wird aber immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden.

Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie den lokalen Wettbewerb, die Kundenstruktur oder unvorhergesehene Ereignisse zu berücksichtigen.

Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es, die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-Reduce einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen.

Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten.

Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber, mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Denn damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen.

AUTOR

Paul Griffin ...

... ist Connect Product Manager bei Progress Software. Das weltweit aktive Unternehmen erleichtert Firmen die Entwicklung und Verwaltung von Business-Anwendungen unabhängig von der Plattform und dem genutzten Gerät sowie davon, ob diese im eigenen Rechenzentrum oder in der Cloud laufen.

ZDNet.de Redaktion

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

7 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

11 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

11 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

12 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

12 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

14 Stunden ago