Das Gehirn von Netbooks: Intels Atom-Architektur im Detail

Der jetzt mit dem Namen „Atom“ bezeichnete Prozessor hat eine lange Entwicklungsgeschichte hinter sich. Alles begann 2004 mit dem Bonnell Core Design Project. Ziel war die Entwicklung einer grundlegend neue x86-Architektur, bei der Effizienz einen höheren Stellenwert haben sollte als Geschwindigkeit.

Intel hatte damals drei verschiedene CPU-Reihen mit unterschiedlichen Befehlssätzen: Itanium für High-Performance-Computing, x86 für Desktops und Notebooks sowie ARM für Embedded Devices. Zur letzten Kategorie gehören auch Smartphones und Handhelds. Das sind große und wachsende Märkte, in denen Intel aber bei weitem nicht so erfolgreich ist wie im PC-Umfeld. Der weltgrößte Halbleiterhersteller wollte daher den x86-Befehlssatz auch in diesem Bereich einsetzen. Der Vorteil wäre die Kompatibilität zur riesigen Auswahl bestehender PC-Software.

Der Die des Intel Atom misst nur 25 Quadratmillimeter (Bild: Intel).

x86 in den Handheld-Bereich zu bringen war aber selbst für einen Technologieriesen wie Intel eine große Herausforderung: Mit ARM gab es ja schon lange eine besonders energieeffiziente Architektur, deren Befehlssatz speziell für einfaches, schnelles Decoding optimiert ist. Der RISC-Ansatz ermöglicht einfache, schnelle CPUs mit geringer Komplexität und Leistungsaufnahme.

Anders als die meisten RISC-Architekturen beherrschen ARM-CPUs allerdings keine Floating-Point-Arithmetik. Dadurch werden Multimedia-Anwendungen langsamer, die in heutigen Smartphones und Handhelds immer wichtiger werden.

x86 dagegen folgt dem CISC-Prinzip (Complex Instruction Set Computing) mit vielen leistungsfähigen Instruktionen, die viele Optionen bieten. Das machte die Arbeit des Programmierers einfacher (zumindest zu der Zeit, als er sich noch um Befehlssätze kümmern musste), erfordert aber einen großen, komplexen und leistungshungrigen Prozessor.

Der Unterschied wird besonders relevant, da man aus Gründen der Leistungsaufnahme nicht einfach an der Taktschraube drehen kann, um die Geschwindigkeit zu erhöhen. Zudem steigt die Komplexität weiter, wenn man Features wie Spekulative Ausführung und Out-of-Order-Execution integriert.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

6 Stunden ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

6 Stunden ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

14 Stunden ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

1 Tag ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

1 Tag ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

1 Tag ago