Das Gehirn von Netbooks: Intels Atom-Architektur im Detail

Der jetzt mit dem Namen „Atom“ bezeichnete Prozessor hat eine lange Entwicklungsgeschichte hinter sich. Alles begann 2004 mit dem Bonnell Core Design Project. Ziel war die Entwicklung einer grundlegend neue x86-Architektur, bei der Effizienz einen höheren Stellenwert haben sollte als Geschwindigkeit.

Intel hatte damals drei verschiedene CPU-Reihen mit unterschiedlichen Befehlssätzen: Itanium für High-Performance-Computing, x86 für Desktops und Notebooks sowie ARM für Embedded Devices. Zur letzten Kategorie gehören auch Smartphones und Handhelds. Das sind große und wachsende Märkte, in denen Intel aber bei weitem nicht so erfolgreich ist wie im PC-Umfeld. Der weltgrößte Halbleiterhersteller wollte daher den x86-Befehlssatz auch in diesem Bereich einsetzen. Der Vorteil wäre die Kompatibilität zur riesigen Auswahl bestehender PC-Software.

Der Die des Intel Atom misst nur 25 Quadratmillimeter (Bild: Intel).

x86 in den Handheld-Bereich zu bringen war aber selbst für einen Technologieriesen wie Intel eine große Herausforderung: Mit ARM gab es ja schon lange eine besonders energieeffiziente Architektur, deren Befehlssatz speziell für einfaches, schnelles Decoding optimiert ist. Der RISC-Ansatz ermöglicht einfache, schnelle CPUs mit geringer Komplexität und Leistungsaufnahme.

Anders als die meisten RISC-Architekturen beherrschen ARM-CPUs allerdings keine Floating-Point-Arithmetik. Dadurch werden Multimedia-Anwendungen langsamer, die in heutigen Smartphones und Handhelds immer wichtiger werden.

x86 dagegen folgt dem CISC-Prinzip (Complex Instruction Set Computing) mit vielen leistungsfähigen Instruktionen, die viele Optionen bieten. Das machte die Arbeit des Programmierers einfacher (zumindest zu der Zeit, als er sich noch um Befehlssätze kümmern musste), erfordert aber einen großen, komplexen und leistungshungrigen Prozessor.

Der Unterschied wird besonders relevant, da man aus Gründen der Leistungsaufnahme nicht einfach an der Taktschraube drehen kann, um die Geschwindigkeit zu erhöhen. Zudem steigt die Komplexität weiter, wenn man Features wie Spekulative Ausführung und Out-of-Order-Execution integriert.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

15 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

2 Tagen ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

2 Tagen ago