Big Data ist keine vorübergehende Mode, die nach einiger Zeit wieder aus der IT-Diskussion verschwindet. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: die explosionsartig zunehmenden Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeitanalysen.
Paul Griffin, der Autor dieses Gastkommentars für ZDNet, ist ist Connect Product Manager bei Progress Software (Bild: Progress Software).
All diese Aufgaben sind nicht leicht zu bewältigen. Sie eröffnen andererseits aber auch Möglichkeiten, die sich Firmen nicht entgehen lassen sollten: Sowohl die Daten aus internen Beständen, als auch die aus externen Quellen stammenden Datenmengen, etwa von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, lassen sich für neue, geschäftsrelevante Erkenntnisse, auswerten.
Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, die Datenberge mit den richtigen Methoden und Werkzeugen zu bearbeiten. Was bei Big Data „Big“ bedeutet, ist dabei für jedes Unternehmen unterschiedlich. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data dagegen erst bei einer Datenmenge von mehreren Hundert Terabyte.
Gesucht wird aber immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden.
Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie den lokalen Wettbewerb, die Kundenstruktur oder unvorhergesehene Ereignisse zu berücksichtigen.
Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es, die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-Reduce einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen.
Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten.
Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber, mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Denn damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen.
Paul Griffin ...
... ist Connect Product Manager bei Progress Software. Das weltweit aktive Unternehmen erleichtert Firmen die Entwicklung und Verwaltung von Business-Anwendungen unabhängig von der Plattform und dem genutzten Gerät sowie davon, ob diese im eigenen Rechenzentrum oder in der Cloud laufen.
Neueste Kommentare
Noch keine Kommentare zu Big-Data-Projekte brauchen die richtigen Werkzeuge
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.