Experteninterview: „Software könnte fünfmal schneller sein“

Software ist überall: als Betriebssystem auf unserem PC, als Rückgrat der Warenwirtschaft in Unternehmen und inzwischen sogar in Autos und als „App“ auf dem iPhone. Und sie unterliegt – ebenso wie vieles andere – inzwischen Moden. Aber Moden sind kurzlebig. Also muss auch Software schnell und äußerlich ansprechend entwickelt werden. „Innere Werte“ zählen dabei immer weniger.

Aber Software trägt durch die Art ihrer Programmierung wesentlich zum Energieverbrauch der Rechner bei, die mit ihr arbeiten müssen. Und Software führt zu ärgerlichen Verzögerungen beim Aufrufen von Programmen – das ist nicht die Schuld der Entwickler, müsste aber auch nicht sein. Neue Paradigmen auch beim Rechnerbau könnten die Effizienz von Software um ein vielfaches steigern, meint Gunter Dueck, IBM Distinguished Engineer. Im ZDNet-Interview erklärt er, wie er zu dieser Ansicht kommt und warum es trotz immer noch rasch wachsender Rechen- und Speicherkapazitäten ein erstrebenswertes Ziel ist, Software ressourcenschonend zu programmieren.


Gunter Dueck, Mathematikprofessor und IBM Distinguished Engineer (Bild: Gunter Dueck/omnisophie.de).

ZDNet: Herr Dueck, Sie glauben, Software könnte um ein Mehrfaches effizienter arbeiten. Wieso?

Dueck: In den Anfängen der Programmierung kam es auf jedes Bit und jedes Byte an. Denn die Interpretation einer Zeile Programmcode verursachte eine Verzögerung von einer Millisekunde. Man hat als Programmierer versucht, diese Verzögerung zu vermeiden, indem man den Code in möglichst wenige Programmzeilen steckte, die aber sehr durchdacht waren. Ein guter Programmierer konnte zum Beispiel bei Vektoroperationen Vektoren mit einem einzigen Befehl komplett umdrehen, während man heute jede Zahl im Vektor einzeln verschiebt.

Zum Beispiel konnten bestimmte Spiele auf Atari oder Commodore nur laufen, wenn man jedes überflüssige Bit in den oberen Speicherbereich verschob, denn es gab einfach nur sehr begrenzte Kapazitäten. So zu programmieren, war natürlich sehr aufwändig und teuer. Deshalb sind diese Programmierkünste heute verloren gegangen.

ZDNet: Warum hat man damit aufgehört?

Dueck: Das hat mit einer an sich positiven Entwicklung zu tun, nämlich mit der Verbilligung und Verkleinerung der Hardwareressourcen, letztlich also mit dem Mooreschen Gesetz. Wenn ich Gigabytes an Speicher und superschnelle Prozessoren zur Verfügung habe, dann ist es eben nicht mehr nötig, solche Programmierakrobatik zu betreiben. Infolgedessen – und davon haben alle, auch die Anwender, lange profitiert – wurde die Programmierung darauf optimiert, möglichst schnell und möglichst günstig neue Software zu entwickeln. Ob die sparsam mit Speicher- oder Prozessorressourcen umgeht, war lange kein Thema.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Apple meldet Rekordumsatz im vierten Fiskalquartal

Die Einnahmen klettern auf fast 95 Milliarden Dollar. Allerdings belastet der Steuerstreit mit der EU…

2 Tagen ago

Microsoft steigert Umsatz und Gewinn im ersten Fiskalquartal

Das stärkste Wachstum verbucht die Cloud-Sparte. Microsoft verpasst bei der Umsatzprognose für das laufende Quartal…

2 Tagen ago

Bezahlkarten: Infineon verspricht weniger Plastikmüll

Ein Coil-on-Module-Package integriert Chip und Antenne, was den Kartenkörper fast vollständig recycelbar machen soll.

3 Tagen ago

Firefox 132 schließt elf Sicherheitslücken

Mindestens eine Anfälligkeit erlaubt das Einschleusen von Schadcode. Außerdem erweitern die Entwickler den Support für…

3 Tagen ago

Telekom nennt Termin für 2G-Ende

Zum 30. Juni 2028 soll das 2G-Netz komplett abgeschaltet werden und den Weg für schnellere…

3 Tagen ago

Alphabet übertrifft die Erwartungen im dritten Quartal

Gewinn und Umsatz legen deutlich zu. Zum Wachstum tragen auch die Sparten Cloud und Abonnements…

3 Tagen ago