Projektmanagement: Techniken und Trends verändern die Anforderungen

Die Vorteile von Projektmanagement-Software liegen auf der Hand: Viele der am Markt verfügbaren Lösungen bieten einen echtzeit-aktuellen Überblick über die Projektlandschaft und den Status der einzelnen Projekte. Die Verantwortlichen sehen auf einen Blick, welche Aufgaben bereits erledigt sind und wo es aktuell zu Verzögerungen kommt – und können entsprechend reagieren.

Darüber hinaus trägt Projektsoftware dazu bei, unnötigen Kommunikationsaufwand im Team zu reduzieren, weil nicht mehr alle Informationen manuell verteilt werden müssen. Ein integriertes Dokumentenmanagement verhindert außerdem Redundanzen und doppelte Datenbestände in den Projektdokumenten.

Zudem wird Projektmanagement-Software mittlerweile in vielen Unternehmen auch als Frühwarnsystem eingesetzt. Verantwortliche werden automatisch gewarnt, wenn kritische Werte – etwa in der Zeitplanung oder im Projektbudget – überschritten werden.

Projektlandschaft im Wandel

Doch während sich gerade die letzten Unternehmen von reinen Excel- und Aufgabenlisten im Projektmanagement verabschieden und über die Anschaffung einer professionellen Projektmanagement-Software nachdenken, kommen bereits wieder neue Herausforderungen auf sie zu.

Immer kürzere Produktlebenszyklen und immer straffere Time-to-Market-Vorgaben sorgen dafür, dass Unternehmen bei ihren Projekten über den Tellerrand hinausblicken. So werden flexible, cross-funktionale Projektteams bestehend aus Innendienstlern, mobilen Teammitgliedern, externen Spezialisten und Zulieferern zusammengestellt. Teams kommen häufig nur für ein Projekt in ein und derselben Konstellation zusammen. In diesem Szenario sollte ein Zugriff auf die Projekte überall möglich sein: Vor Ort beim Kunden, auf Geschäftsreise oder im Home Office. Der Erfolg von Projekten hängt damit zunehmend vom effizienten Informations- und Datenaustausch über Unternehmensgrenzen hinweg ab.

Viele der herkömmlichen Projektmanagement-Softwareprodukte kommen unter diesen Bedingungen an ihre Grenzen, weil sie entweder so optimiert sind, dass sie ein bequemes Arbeiten am Desktop ermöglichen und von einer mehr oder weniger stabilen Zahl an Teammitgliedern ausgehen oder sie hauptsächlich Projektteams im Auge haben, die ihre Projekte über eine Weboberfläche steuern.

Hinzu kommt, dass gerade kleine und mittlere Unternehmen auf unternehmensübergreifende Kooperationen und die Zusammenarbeit mit externen Spezialisten angewiesen sind. Doch häufig verfügen sie weder über eine ausdifferenzierte IT-Administration, noch über die notwendige Serverinfrastruktur, um eine teamfähige Projektmanagement-Software selbst hosten zu können.

Entscheidend ist also inzwischen neben Fragen der Funktionalität und der Nutzerakzeptanz, ob sich die Software flexibel an verschiedene Anwendungssituationen, Teamgrößen und -zusammensetzungen anpassen lässt und das bei entsprechend variablen Kosten und geringem Administrationsaufwand.

Entscheidungsfreiheit auf Kundenseite

Bei der Münchner InLoox GmbH entschloss man sich beispielsweise dazu, nicht nur einen Webclient, sondern auch einen in Microsoft Outlook integrierten Desktop-Client in der Cloud, d.h. als gehostete Projektmanagementlösung zum Mieten anzubieten. Daneben gibt es aber nach wie vor den klassischen Lizenzkauf mit Eigeninstallation im Angebot.

Neben InLoox beschreiten immer mehr Hersteller diesen Weg. Doch einige grundsätzliche Entscheidungen können sie ihren Kunden nicht abnehmen. Zunächst müssen diese entscheiden, ob sie die Software auf dem eigenen Server hosten oder ob sie sie als Service vom Anbieter beziehen möchten. Gerade kleine oder neugegründete Firmen, die die Anschaffung und Administration einer eigenen Serverinfrastruktur nicht finanzieren können, werden sich eher für die letztgenannte Cloud-Lösung entscheiden. Doch auch große Unternehmen, die im Bereich Projektmanagement ihre physische Infrastruktur verschlanken und Investitions- und Betriebskosten senken möchten, sind mit der Cloud-Variante gut beraten. Sie sind von der Wartung und Pflege des Servers entlastet und machen sich zudem standortunabhängig. Außerdem kann mit Hilfe der Cloud eine Projektplattform geschaffen werden, auf der unternehmensinterne und -externe Teammitglieder zusammenarbeiten können, ohne dass externe Projektpartner ins Firmennetzwerk integriert werden müssen.

Es stellt sich außerdem die Frage, ob die Software als Service mit monatlichen Kosten abonniert werden soll oder ob man lieber zu entsprechenden Lizenzen zum Einmalpreis greift. Die Cloudlösung ist in der Regel an ein Abonnement geknüpft, während eine klassische Infrastruktur mit Hosting auf dem eigenen Server meist den Kauf von Lizenzen voraussetzt. Bei einer längerfristigen Nutzung der Software kann ein Lizenzkauf durchaus die ökonomisch sinnvollere Variante sein. Ein Abonnement sorgt dagegen für variable Kosten und Zugänge können gekündigt werden, sobald man sie nicht mehr benötigt.

Wettbewerbsvorteile bleiben bislang häufig ungenutzt

Die Cloud bietet also unter Umständen viele Wettbewerbsvorteile, doch deutsche Unternehmen zögern noch. Bedenken beim Thema Datenschutz, Datensicherheit und Verfügbarkeit hindern sie zum Teil noch daran, Cloudlösungen ernsthaft in Betracht zu ziehen. Dabei übersehen sie manchmal, dass sie viele Aspekte selbst steuern können. Zunächst sollten sie sich einen Anbieter aussuchen, bei dem sie selbst entscheiden können, in welcher Region die Daten gespeichert werden. Befindet sich das Rechenzentrum in der EU, so gilt die EU Data Protection Directive mit wesentlich strikteren Datenschutzbestimmungen als sie etwa US-Recht vorsieht. Deutsche Unternehmen sind darüber hinaus an das Bundesdatenschutzgesetz gebunden. Auch Betriebe, die Daten außer Haus speichern, bleiben jedoch rechtlich dafür verantwortlich, dass die Daten ordnungsgemäß verarbeitet werden. In einer sog. „Auftragsdatenverarbeitungsvereinbarung“ werden die Datenschutz- und Sicherheitsstandards beim Auftragnehmer festgeschrieben.

Außerdem gehen deutsche Unternehmen meist davon aus, dass die Daten auf dem firmeneigenen Server am sichersten aufgehoben sind. Doch oft können nur große Unternehmen in Sachen physischer Datensicherheit mit den Cloud-Rechenzentren großer Anbieter mithalten. Die Vorkehrungen für Zugangskontrollen, Klimatisierung, Brandschutz, Schutz vor Wasserschäden oder Blitzeinschlag reichen gerade bei kleinen Unternehmen häufig kaum aus. Im Falle eines Hardwareschadens kommt so der Betrieb oft erst einmal zum Erliegen, bis ein Backup eingespielt ist. In Cloud-Rechenzentren mit Clusterbetrieb dagegen übernimmt in diesem Fall einfach ein anderer Cluster-Knoten die Arbeit, so dass der Endkunde den Hardware-Ausfall idealerweise gar nicht erst bemerkt.

Dennoch ist die Cloud nicht das Allheilmittel für alle Unternehmen. Firmen, die eine Software langfristig bei einer relativ stabilen Teamgröße nutzen möchten und die zudem über die nötige IT-Infrastruktur verfügen, sind mit dem klassischen Modell aus Lizenzkauf und der lokalen Installation auf der eigenen Hardware besser beraten. Auch wenn sensible personenbezogene Daten im Spiel sind, die aus vertraglichen Gründen nicht außerhalb des Unternehmens gespeichert werden dürfen, ist die klassische Variante oft die beste Lösung.

Page: 1 2

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

4 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

6 Stunden ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

6 Stunden ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

9 Stunden ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

10 Stunden ago

Latrodectus: Gefährlicher Nachfolger von IcedID

Latrodectus, auch bekannt als BlackWidow, ist auch unter dem Namen LUNAR SPIDER bekannt.

10 Stunden ago