Statt den PC-Sumpf ein für alle mal gründlich auszutrocknen, pflückten die Verantwortlichen lieber die niedrig hängenden Früchte. Und davon gab es ja aufgrund des Grundproblems PC genügend: Es war die große Zeit der Lizenzoptimierer, die ihren Einsatz in den Unternehmen alleine schon dadurch rechtfertigen konnten, dass sie beim ansatzweisen Auslichten des von den Herstellern geschaffenen Lizenzdschungels noch im selben Fiskaljahr deutlich mehr Kosten einsparen konnten, als sie selbst verursachten.
Aber auch immer kompliziertere und damit teurere Managementlösungen für die PC-Landschaften mussten her. Sogar Intel hielt dieses Segment kurze Zeit für attraktiv genug, um mit der vorübergehenden Übernahme von LanDesk zu CA, HP, IBM und einer Vielzahl kleinerer Spezialisten in Konkurrenz zu treten.
Das „System Desktop-PC“ ernährte so durch seine Unzulänglichkeiten und weil es eigentlich für den Schreibtisch zu Hause und nicht den im Büro gedacht war, ein ganzes, sich immer weiter aufblähendes Ökosystem. Das führte dann auch dazu, dass die Systemhäuser und EDV-Händler beim Thema Thin Client auf Durchzug schalteten. Einer vertraute mir damals unter der Hand einmal an: „Warum sollte ich meinem Kunden einen günstigen Thin Client verkaufen, der kaum Wartungskosten nach sich zieht, wenn ich mir mit dem Verkauf eines aktuellen, dreimal so teuren Windows-PCs zusätzlich den Verkauf von zahllosen Softwarelizenzen und mindestens einen Wartungsauftrag im Quartal sichern kann?“ Aus seiner Sicht war das wohl nur eine rhetorische Frage.
Ohnehin war die Nachfrage im Markt gering. Die größeren Spezialisten, weltweit Wyse und in Mitteleuropa Igel, sowie die Vielzahl der kleinen Spezialanbieter, egal ob VXL Instruments aus Indien, Rangee aus Aachen, Liscon aus Österreich (inzwischen insolvent) oder Athena aus den Niederlanden hatten nie das erforderliche Marketingbudget, um sich der Faszination PC, dem Intel- und Windows-Aufkleber und der Marketingpower von HP, Dell, IBM beziehungsweise später Lenovo zu widersetzen.
Dazu trug auch bei, dass die großen PC-Anbieter von HP über Dell bis zu FSC zwar alle auch eine Thin-Client-Sparte hatten (HP verstärkte die sogar einmal mit dem Zukauf des damals in Europa zu den Top-Drei-Anbietern gehörenden Linux-Spezialisten Neoware), aber diese jeder wie die durch eine merkwürdige, möglicherweise ansteckenden Krankheit belastete, unglücklicherweise aber zur Familie gehörende Cousine behandelte: Bei offiziellen Familienfeiern durfte sie zwar dabei sein, aber saß an einem Einzeltisch weit ab von den anderen und durfte – mit Mundschutz wohlgemerkt – sich nur kurz für das obligatorische Familienbild zu den anderen gesellen.
Zwei Ausnahmen müssen hier wohlwollend erwähnt werden: FSC, damals noch Fujitsu-Siemens Computers, hat immer besonders viel Wert auf energieeffiziente Rechner und Monitore gelegt und auch das Thin-Client-Geschäft etwas weniger als Markt der Aussätzigen behandelt. Das war und ist wohl bei dem Unternehmen durch das verhältnismäßig starke Behördengeschäft bestimmt.
Die zweite Ausnahme ist Sun: Der Anbieter wurde nicht müde, seine schon Anfang des 21. Jahrhunderts vorgestellten Sun-Ray-Clients zu bewerben. Sogar Oracle hat mit dieser Tradition nicht gebrochen. Aber da Sun sich mit seinen sonstigen Lösungen immer weiter ins Backend zurückgezogen hat, fehlte ihnen einfach die Wahrnehmung im Markt: Sie wurden eher als Kuriosum bestaunt denn als ernsthafte Alternative in Betracht gezogen.
Der wichtigste Grund für das Scheitern des ersten großen Anlaufs war aber sicher, dass die Spezialhersteller hatten Mitte des vergangenen Jahrzehnts zunächst nur wenige Argumente hatten, um dem Notebook-Boom zu begegnen. Entsprechende Lösungen kamen zwar allmählich auf den Markt, aber waren anfangs wenig praxistauglich. Auch die Hoffnung, von der ablehnenden Hoffnung des Marktes gegenüber Microsofts damals aktuellem Betriebssystem Vista profitieren zu können, erfüllten sich nur in bescheidenem Umfang.
Als die Branche Green-IT als neues Schlagwort entdeckte, sahen auch die Anbieter von Thin Clients eine neue Chance. Sie produzierten interessante und beeindruckende Studien, in denen von unabhängiger Seite dargelegt wurde, dass ihre Geräte nicht nur wesentlich weniger Strom benötigen, sondern noch dazu viel weniger Ressourcen verbrauchen. Dazu trage erstens bei, dass weniger Material verarbeitet werde als bei herkömmlichen Rechnern und zweitens die Geräte viel länger eingesetzt werden könnten als PCs. Beides war und ist immer noch richtig. Und auch das Argument, dass die hohen Verwaltungskosten bei PCs den Firmen das letzte Hemd rauben, ist nach wie vor richtig. Es verhallt aber nach wie vor ungehört, solange die, die damit beschäftigt sind PCs zu verwalten, über die Anschaffung von Alternativen mitbestimmen.
Aber auch diese Versuche, deutlich über die einstelligen Marktanteile hinauszukommen scheiterten. Green-IT war, zumindest in ihrem ursprünglichen Sinn, ein Rohrkrepierer: Firmen hatten in der Regel kaum Anreize, etwas zu tun, was über bei der Anschaffung neuer Hardware ohnehin erreichbaren Verbesserungen beim Verhältnis von Leistungsaufnahme und Performance hinausging. Stromkosten waren und sind zum Großteil immer noch nicht das Problem der für die Anschaffung von IT Verantwortlichen Menschen. Und umweltgerechtes Wohlverhalten in der IT wird bei ihnen in der Regel auch nicht belohnt. Zudem sind die Einführung einer Videokonferenzlösung um X Tonnen CO2 durch Flugreisen einzusparen wesentlich publikumswirksamer als die Anschaffung von X Thin Clients um im Jahr ein paar Watt weniger zu verbrauchen.
Außerdem wurde zumindest beim Stromverbrauch der Abstand zwischen PCs und vor allem Notebooks und Thin Clients immer geringer. Dazu trug auch bei, dass manche Thin Clients gar nicht mehr so Thin waren, wie noch vor ein paar Jahren: Zumindest die großen Spezialhersteller Wyse und Igel hatten sie mit allerhand Software aufgemotzt, damit all die neuen und erwünschten Multimediafunktionen endlich flüssig laufen. Besonders bei Igel hat die Differenzierung durch Software eine lange Tradition und wird auch heute immer noch fortgesetzt.
Damit setzten sie dann zusammen mit VDI (Virtual Desktop Infrastructure) zum dritten und wie sie meinten entscheidenden Sturm auf die Festung PC an. Die meisten Argumente sind inzwischen bekannt und müssen hier nicht wiederholt werden. Wichtigste Neuerung: Durch die Anwendungsvirtualisierung lassen sich nun alle, aber wirklich alle Anwendungen in irgendeiner Form auf dem Thin Client darstellen – aber zu einem hohen Preis im Backend. Dort kostet zum Beispiel Storage wesentlich mehr als nahe beim Anwender, auf dem PC oder Notebook.
Nach einigen engagierten Pilotprojekten wurden die meisten VDI-Projekte daher zunächst wieder auf Eis gelegt. Inzwischen gibt es zwar ein paar große Firmen, die solche Vorhaben umsetzen, in der Regel aber beschränkt man sich auf bestimmte Abteilungen, wo neben dem Wunsch Kosten einzusparen andere Absichten im Vordergrund stehen, etwa Sicherheitsaspekte, wie in Banken oder im Gesundheitswesen.
Damit ist auch dieser Anlauf der Thin Clients nach nur zwei Jahren gescheitert. Den Gnadenstoß bekommen sie nun von den Tablets. Angesicht des Wunsches nach immer mehr Mobilität und einiger Vorteile, die bisher Thin Clients für sich in Anspruch nahmen – etwa dass sie wartungsarm sind oder dass sie keinen Lüfter benötigen, was wegen Lüfterschächten als idealer Brutstätte für Keime im Gesundheitswesen wichtig war – bleibt für sie nicht mehr viel Spielraum übrig.
Dazu kommt noch, dass es in vielen Fällen nicht sinnvoll ist, einen traditionellen Windows-Desktop auf ein mobiles Gerät zu übertragen – alleine schon wegen der Schwierigkeiten bei der Bedienung. Und während die Virtualisierung von Anwendungen immer noch ein schwer zu beackerndes Feld ist, stehen Apps inzwischen auch für zahlreiche Zwecke im Unternehmen zu niedrigen Kosten oder sogar kostenfrei zur Verfügung: Manchem App-Anbieter, etwa SAP, reicht als Lohn schon, als innovativ wahrgenommen zu werden und die Hoffnung, Anwender seiner eigentlichen Anwendungen nicht an irgendwelche Emporkömmlinge zu verlieren.
Fazit
Thin Clients mag ich immer noch. Aber ich werde es wohl nicht mehr erleben, dass sich sich am gängigen PC-Arbeitsplatz durchsetzen. Damit ist nicht gesagt, dass die dahinterstehende Technologie schlecht ist. Im Gegenteil, gerade in Umgebungen mit unerfahrenen IT-Anwendern ist sie dem PC mit all seinen Macken und all seinen Optionen, etwas falsch zu machen, deutlich überlegen.
Aber Thin Clients und ihre Anbieter haben es in den vergangenen zehn Jahren trotz mehrerer Chancen nicht geschafft, sich nennenswerte Marktanteile am Gesamtmarkt zu sichern, obwohl alle Vorzüge hinlänglich bekannt sind – vom geringen Stromverbrauch über den schonenden Umgang mit den natürlichen Ressourcen unseres Planten bis zum geringen Verwaltungsaufwand und der Eignung für moderne Arbeitsplatzkonzepte. Die Bemühungen von Microsoft mit dem Windows Multipoint Server sind beachtenswert, aber zu mehr als Achtungserfolgen in Schulen und Schwellenländern wird es wohl dennoch nicht reichen. Und auch die Bemühungen ganz neuer Thin-Client-Anbieter, etwa von Cisco, sind zwar technisch interessant, haben aber bisher nicht wirklich für Furore gesorgt.
Angesicht der aktuellen Trends und Umwälzungen in der IT-Branche, hin zu mehr Mobilität, der Nutzung von Tablets und Smartphones, der Appifizierung von Anwendungen und – wenn er denn kommt – dem Trend zur verstärkten Nutzung privater Geräte für die Arbeit (BYOD), stehen die Chancen schlechter als je zuvor. Denn Tablets sind nicht nur Feinde des Notebooks, sondern noch in viel höherem Maße Feinde des Thin Clients: Sie bieten Dinge, die bisher letzteren vorbehalten waren (minimale Boot-Zeit, kein Lüfter etc.). Außerdem sind sie auch nach einem Jahrzehnt eifriger Bemühungen ihrer Befürworter einfach uncool. Sie gehören in Amtsstuben, Lagerhallen, öde Flughafen-Terminals und Bahnhofsschalter. Und da sind sie ja schon. Mehr geht nicht.
PS: Wenn Sie in Ihrem Unternehmen ein cooles Thin-Client-Projekt erfolgreich durchgeführt haben, lassen Sie es mich wissen. Am besten gleich jetzt und gleich hier.
Page: 1 2
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…
Mit dem Internet verbundene Digitale Bilderrahmen oder Mediaplayer können mit Schadsoftware infiziert werden und sind…
Schädliche Apps können unter Umständen einen Systemabsturz auslösen. Mindestens eine Anfälligkeit erlaubt eine Remotecodeausführung.