ARM-Prozessoren: Jetzt wollen sie Intel Konkurrenz machen

Wie die x86-Architektur haben sich auch ARM-Prozessoren über die Zeit weiterentwickelt. Allerdings schleppen ARM-CPUs keinen Ballast aus einer 16-Bit-Vergangenheit mit. Bereits der ARM1 aus dem Jahr 1985 war ein 32-Bit-RISC-Prozessor. Kommerziell wurde jedoch erst der ARM2 im Acorn Archimedes 1987 eingesetzt. Er bestand aus nur 30.000 Transistoren, hatte keinen Cache und beherrschte keine Floating-Point-Befehle. Er war schneller als Intels 80286. Den 80386 konnte der ARM2 allerdings nicht schlagen.

Im Standard-ARM-Befehlssatz sind alle Befehle 32 Bit lang. Die gleiche Länge aller Befehle ist ein wesentliches Kennzeichen von RISC-Prozessoren. In einer CISC-Architektur wie x86 haben die Befehle unterschiedliche Länge. Wenn alle Befehle dieselbe Länge besitzen, spart man Transistoren bei der Dekodierung, allerdings benötigt der Programmcode deutlich mehr Speicher.

Der ARM-Befehlssatz erlaubt drei Register als Operatoren. So lässt sich etwa der Pseudocode r3 = r2 + r1; in einem einzigen Befehl unterbringen. Die x86-Architektur beherrscht nur zwei Operatoren pro Befehl. Zudem lassen sich Befehle bedingt ausführen. Das heißt, ein Befehl wird nur ausgeführt, wenn ein vorheriger Befehl ein Flag auf einen bestimmten Zustand gesetzt hat. So erspart man sich häufig Sprünge. Außerdem erlaubt ARM die Kombination der Low-Level-Binär-Operationen Rotate und Shift mit einer weiteren Operation, etwa Addieren, in einem einzigen Befehl.

Der Siegeszug von ARM im Embedded Markt begann 1993, als Apple seinen ersten PDA, den Newton, mit einem ARM6-Prozessor ausstattete. Etwa zur selben Zeit lizensierte DEC den ARM6 und stellte den ersten StrongARM her. Der StrongARM SA-110 war mit 233 MHz getaktet und kam mit einem Watt Leistungsaufnahme aus. Mit dieser Kombination aus hoher Leistung und geringem Verbrauch hatte die ARM-Architektur eine Nische bei embedded Devices gefunden, die sich kurz darauf zum Massenmarkt entwickelte.

Problematisch ist allerdings der große Code des ARM-Befehlssatzes. Hauptspeicher war damals sehr teuer und embedded Devices waren oft sehr knapp damit bestückt. Das führte zur Befehlssatzerweiterung Thumb. Sie erlaubt wie bei CISC-Prozessoren eine variable Länge von Befehlen, wobei nur 16- und 32-Bit lange Befehle existieren. Durch die Verkürzung fallen bestimmte Möglichkeiten weg, etwa die bedingte Befehlsausführung. Einige Befehle können mit Thumb nur noch die Hälfte des Registersatzes ansprechen. So erzeugen Compiler kleineren, aber langsameren Code. Später kam Thumb-2 hinzu, das die Ausführungsgeschwindigkeit verbesserte.

Page: 1 2 3 4 5 6

ZDNet.de Redaktion

Recent Posts

Digitale Produkte „cyberfit“ machen

Vernetzte Produkte müssen laut Cyber Resilience Act über Möglichkeiten zur Datenverschlüsselung und Zugangsverwaltung verfügen.

2 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Das jüngste Update für Windows, macOS und Linux stopft drei Löcher. Eine Anfälligkeit setzt Nutzer…

3 Tagen ago

Apple schließt Zero-Day-Lücken in iOS, iPadOS und macOS

Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…

3 Tagen ago

Gefährliche Anzeigen für Passwortmanager Bitwarden verbreiten Malware

Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…

3 Tagen ago

Public Cloud: Gartner erwartet 2025 weltweite Ausgaben von 723 Milliarden Dollar

Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.

4 Tagen ago

iPhone 15 ist bestverkauftes Smartphone im dritten Quartal

Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…

4 Tagen ago