Schon seit Mitte der 90er Jahre sind die Betriebssystemhersteller dabei, bei allen APIs Puffer vor einem Überlauf zu sichern. Wie man jedoch immer wieder in Security-Bulletins nachlesen kann, werden auch heute noch regelmäßig Sicherheitslücken gefunden, die einen Pufferüberlauf ausnutzen. Die Häufigkeit von Pufferüberläufen in Sicherheitswarnungen nimmt zwar ab, dennoch kann man nicht von einer Entwarnung reden.
Managed Code lässt keine Pufferüberläufe zu. Zu jedem Objekt gehört seine Länge in Bytes. Beim Arbeiten mit Objekten wird jedes Mal überprüft, ob die Längenbeschränkung eingehalten wird, selbst wenn das nicht nötig wäre. Das führt dazu, dass Managed Code zum Teil deutlich langsamer ist als Unmanaged Code. So ist zum Beispiel der folgende C-Code als sicher einzustufen:
const char* const yesno[2] = {"No", "Yes"];
char answer[4];
int condition;
if ( ... ) condition = 1; else condition = 0;
strcpy(answer, yesno[condition]);
Die grundsätzlich unsichere Funktion strcpy kann in diesem Fall verwendet werden, weil sichergestellt ist, das answer nur Yes oder No annehmen kann. Dafür ist answer mit vier Bytes, nämlich drei Zeichen und dem Nullterminator, ausreichend dimensioniert. In einer Managed-Code-Umgebung bekommt der obige Code jedoch in etwa folgendes Äquivalent in C:
const char* const yesno[2] = {"No", "Yes"];
const int maxlen = 4;
char answer[maxlen];
int condition;
if ( ... ) condition = 1; else condition = 0;
if (strlen(yesno[condition]) >= maxlen )
errorHandler();
else
strcpy(answer, yesno[condition]);
Diesen zusätzlichen Code kann ein Optimizer meist nicht ganz ausmerzen. Das gilt insbesondere dann, wenn die Definition des String-Arrays yesno in einem anderen Modul steht als der Rest des Beispielcodes.
Anders als oft angenommen ist Managed Code nicht deswegen langsamer, weil der Sourcecode zunächst in einen Bytecode und erst später auf dem Zielsystem in Native Code übersetzt wird. Im Gegenteil, ein Just-In-Time-Compiler kann spezifische Befehlssatzerweiterungen, zum Beispiel SSE2, SSE4.2 oder 3DNow, ausnutzen. Die geringere Ausführungsgeschwindigkeit kommt fast ausschließlich von den redundanten Überprüfungen.
- Midori nimmt Formen an: Das Ende von Windows ist besiegelt
- Ballast, Erblasten, Sicherheitsprobleme: Windows ist nicht mehr zu retten
- Dogma Managed Code: Sicherheit wichtiger als Leistung
- Pufferüberläufe: einfach nicht auszumerzen
- Zugriff auf den Hauptspeicher: in Midori strengstens verboten
- Auch Managed Code schützt nicht vor Malware
- Fazit
Neueste Kommentare
10 Kommentare zu Midori nimmt Formen an: Das Ende von Windows ist besiegelt
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Kommt mir sehr bekannt vor
Damals beim AMIGA OS war es schon so, dass jeder Prozess seinen Speicher vom Kernel erbitten musste und der ihm dann einen Bereich zuwies. Kein Prozess wusste. wo der Speicher wirklich lag, er wurde vom Kernel in Echtzeit umadressiert. Und das war schnell. Überläufe waren so nicht möglich. Man konnte so auch problemlos jeden Prozess einfrieren oder killen, wobei das komplette RAM zurückgegeben wurde.
Kaum 20 Jahre später kommt auch MS auf die Idee. :-)
AW: Kommt mir sehr bekannt vor
Die älteren Amigas hatten eine 68000 CPU von Motorola. Diese hatte keine MMU. Somit konnten die Adressen nicht ‚umprogrammiert‘ werden. Das einzige was gemacht wurde ist, dass eine relative Adressierung verwendet wurde. Das hat aber auch schon DOS gemacht. Erst die 68030 brachte eine MMU mit, die einen Speicherschutz ermöglichte. Gleiches war ab dem 386er von Intel (im Protected Mode) möglich. Die Idee so etwas auszunutzen ist dann auch ab windows 3.1 geschehen.
Im übrigen ist es im Amiga schon zu Speicherüberläufen durch Programme gekommen. Dies führte dann zu den bekannten Guru-Meditations.
Das neue an Midori ist doch, dass bevor ein Programm gestartet wird, nun bekannt ist, dass (theoretisch) kein Speicherüberlauf passieren kann. Dies wird durch ein Zusammenspiel der MSIL und dem Compiler ermöglicht.
Das Amiga-OS hat Prozesse einfach nur gestartet und drauf *gehofft*, dass kein Prozess Mist baut…
Vorherrschaft
Es gibt vor allem auch einen ganz großen Punkt, warum Windows (zumindest im privaten Bereich) überhaupt noch existent ist: Die Spiele-Industrie !
Solange Zocken auf Linux oder Mac nur Tetris-Charakter hat wird Windoof
immer der Standard bleiben.
Da bin ich bei Midori allerdings gespannt, ob das quasi-Monopol gesprengt wird.
Jepp, die Spiele sind es!
Genau so sehe ich das schon seit Jahren.
Ich spiele auch mit 44 Jahren noch leidenschaftlich gern am PC, und das seit ich mit 16 Jahren in der Schule an den ersten ASCII-Spielen mitprogrammierte.
Alle andern Tätigkeiten wie Home-Office, Webentwicklung usw. kann ich gut mit jedem anderen BS tun. Aber die Spiele binden mich an Windows. Sollte es irgendwann möglich sein, alle Spiele genauso unter Linux zu spielen – und sollte Linux so anwenderfreundlich werden wie es Windows heute ist – dann wechsle ich sofort mit Freuden.
Alternativen
Solange die Anwender die Macken von Windows für "nromales Computerverhalten" halten und hinnehmen, Linux bei 1% MA auf dem Desktop dahindümpelt und Macs als "elitär" und "überteuert" halten (wer braucht schon Technik, die gut funktioniert, wenn es auch welche tut, die weniger gut funktioniert), ist doch alles in bester Ordnung!
Aber für MS wird nicht alles beim Alten bleiben:
Das MacOSX entwickelt sich gerade zur endlich auch breiter akzeptierten Alternative für diejenigen, die für erheblich weniger Probleme bereit sind, ein wenig mehr Geld auszugeben. Das spricht sich herum . gut so!
AW: Alternativen
Also Mac OS X als ernsthafte bedrohung zu sehen für Windows ist ungefähr das gleiche wie Zune als ernsthafte bedrohung für den ipod. Also Linux mag zwar auf 2% rumdümpeln aber die 5 bis 8% vom Mac sind auch nicht gerade riesig vor allem in anbetracht der momentanen finanzkrise ist keiner bereit für Mac mehr zu zahlen die selbe hardware und ein betriebssystem zu kriegen das zwar schöner aussieht als windows aber genau so anfällig ist was man auch sehen würde wenn es wirklich viele mac benutzer geben würde :D
also schön auf dem boden bleiben.
Lohnt es sich noch…?
Lohnt es sich denn dann noch in NET einzuarbeiten. Erfahrungen mit dem SQL Server zu sammeln und Datenbankanwendungen mit C Sharp zu programmieren???
Oder sollte man sich in weiser voraussicht schon auf Alternativen stürzen?
AW: Lohnt es sich noch…?
Da du sowieso dann mit C# (soll java imitieren) arbeiten musst das keine pointer kennt, wird es warscheinlich klüger sein c’# zu lernen als c++ aber bis dahin ist noch viel zeit. und bis dahin sollte man eh entweder mit c++ oder java arbeiten je nach den anforderungen die gestellt werden.
Es gibt auch ein altes bosnisches sprichwort: "Von zuviel Wissen hat noch keiner Kopfschmerzen gekriegt!".
AW: Lohnt es sich noch…?
Python ist die Alternative :-)
Unbegründet …
"Denn dabei besteht die konkrete Gefahr, die Marktführerschaft einzubüßen, wenn Midori keine breite Akzeptanz findet." – Falsche Schlussfolgerung!
Technologien können über reine Themen oder Sparten den Einstieg beginnen.
Zum Beispiel: Midori mit Exchange. Dadurch liese sich die Technologie in kleineren Rahmen testen und später in andere Sparten ausweiten, bis hin zu den Clients im Endstadium.
Viel spannender ist die Frage: Wo sieht Linux dann aus? oder beginnt dann schon das Web 3.0 um sich zu greifen ….