Antivirus-Lösungen im Test: Microsoft Defender kostet am meisten Performance

Es belegt zusammen mit Adaware Antivirus Pro den letzten Platz im Test von AV-Comparatives. Windows Defender belastet das System vor allem beim Kopieren von Dateien und Installieren von Software. Als Testsieger dürfen sich zehn von 21 Anwendungen fühlen.

AV-Comparatives hat seinen Performance-Test für Antivirenprogramme für Windows (PDF) aktualisiert. Unter anderem wurde der Einfluss von Sicherheitsanwendungen auf Vorgänge wie das Kopieren von Dateien, das Entpacken von Archiven, die Installation von Programmen, Dateidownloads, das Laden von Websites und den Start von gängigen Anwendungen wie Microsoft Office und PDF-Readern untersucht. Das unter Windows 10 vorinstallierte Windows Defender (in der Version 4.11) belegte zusammen mit Adaware Antivirus Pro 12.2 den letzten Platz.

Demnach müssen Windows-Nutzer, die Microsofts Sicherheitsangebot nutzen, vor allem mit Geschwindigkeitseinbußen beim Kopieren von Dateien rechnen. Wird eine Datei erstmalig kopiert, sind die Auswirkungen besonders hoch. Aber auch bei weiteren Kopiervorgängen reicht es nur zur Note „mittelmäßig“. Andere Anbieter wie Avast, AVG, Kaspersky Lab, McAfee, Panda, Symantec und Tencent kamen in dieser Disziplin durchgängig auf ein „sehr schnell“.

Der Performance-Test von AV-Comparatives hat Performance-Schwächen von Microsofts Sicherheitslösung Windows Defender offenbart (Bild: AV-Comparatives).Der Performance-Test von AV-Comparatives hat Performance-Schwächen von Microsofts Sicherheitslösung Windows Defender offenbart (Bild: AV-Comparatives).

Die meisten Konkurrenzprodukte waren zudem beim Umgang mit Dateiarchiven sowie beim Installieren und Deinstallieren von Software schneller. Auch den Start von Anwendungen beeinflussten fast alle Testkandidaten nur unwesentlich. Nur drei Produkte erhielten hier nicht die Bestnote „sehr schnell“: Crowdstrike Falcon Prevent 3.4, McAfee Internet Security 20.2 und eben Windows Defender 4.11. Allerdings gaben die Tester auch diesen drei Anwendungen ein „schnell“.

Keinerlei Schwächen ermittelte AV-Comparatives bei keinem Produkt – jede für den Test eingereichte Antivirensoftware wurde in mindestens einer Disziplin nur mit „schnell“ statt „sehr schnell“ bewertet. Als „Testsieger“ dürfen sich immerhin zehn von 21 getesteten Anwendungen bezeichnen: Avast, Bitdefender, Bullguard, Eset, F-Secure, Kaspersky Lab, Panda, Symantec, Tencent und Vipre.

Laut Tests von AV-Comparatives belastet die Antivirenlösung von Eset das System am wenigsten (Bild: AV-Comparatives).Laut Tests von AV-Comparatives belastet die Antivirenlösung von Eset das System am wenigsten (Bild: AV-Comparatives).

Durchgeführt wurden die Tests im September auf einem mit 8 GByte RAM und SSD ausgestatteten Lenovo-PC mit einem Core-i5-Prozessor von Intel der sechsten Generation, auf dem ein aktuelles Windows 10 64-Bit lief. Die Leistungseinbußen wurden mit PC Mark 10 Professional gemessen. AV-Comparatives betont, dass sich die Ergebnisse nur auf die jeweils getesteten Produktversionen beziehen – ein Produktupdate kann unter Umständen Änderungen mit sich bringen, die zu einer anderen Bewertung führen würden.

Ein Blick in die Resultate früherer Testläufe scheint jedoch zumindest bei einigen Anwendungen einen gewissen Trend zu bestätigen. So belegte Microsofts Windows Defender auch im Oktober 2016 und im Mai 2017 einen der hinteren Plätze. Dass Verbesserungen möglich sind, zeigen indes Anbieter wie AVG. Dessen Produkt schnitt im Oktober 2016 nur unwesentlich besser ab als Windows Defender. Im Mai 2017 reichte es schon für eine Platzierung im Mittelfeld. Im aktuellen Test findet es sich indes bereits in der Spitzengruppe.

Tipp: Wie gut kennen Sie die Geschichte der Computer-Viren? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Whitepaper

CAD-Daten optimal verwalten: ECM-Lösungen vereinfachen Planmanagement

Wie ECM-Systeme CAD-Prozesse verbessern können, was eine gute ECM-Lösung beim Planmanagement auszeichnet und warum sich nscale CAD als spezialisierte Lösung für das Planmanagement anbietet, erklärt dieses Whitepaper.

Themenseiten: Malware, Microsoft, Security, Sicherheit, Windows

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

7 Kommentare zu Antivirus-Lösungen im Test: Microsoft Defender kostet am meisten Performance

Kommentar hinzufügen
  • Am 20. Oktober 2017 um 13:23 von Xip

    Das Defender bessere Erkennungraten lieferte als manches Bezahlprodukt hat man mal schön außen vor gelassen…

  • Am 20. Oktober 2017 um 9:38 von Klaus der Unerbittliche

    Ok, Quelle des PDF gefunden, hier der Link:
    https://is.gd/WUb83k
    Ddas Ergebnis vom MS Defender von 30,4 hat nur sehr eingeschränkt mit dem PC Mark 10 zu tun, denn dieser wird im Dokument genannt, und das System wird durch den Defender nur ganze 3,4% langsamer, beim (laut AV-Comparatives) Performance Sieger F-Secure ist es 0,8% langsamer. Also beides unterhalb dessen, was man merkt, und nur dann relevant, wenn es um die reine Performance geht.
    Es gibt keine Einheit für die 30,4 – dazu unten mehr. Es ist schlicht eine absolute Zahl, die das Delta zur maximal erreichbaren Punktzahl wiedergibt.
    Wie das aber hergeleitet wird, ist, in meinen Augen, abenteuerlich. Es werden kleine Unterschiede der AV Lösungen untereinander aufgebläht – man findet z.B. nicht eine Angabe wie lange denn das Kopieren in echter Zeit gedauert hat. Perfekte Verschleierung, das geht schon arg ins Unseriöse.
    ====
    Das Balkendiagramm beinhaltet
    Wäre der Screenshot nach unten ein wenig größer gewählt worden, hätte man anhand der Worte Slow/Mediocre/Fast/Very Fast bereits ahnen können, dass das ein Vergleichstest ist, und dass man nur die Performance der AV Produkte untereinander verglichen har.
    Also: Null Balken heiß schlicht: es gibt (viel) schnellere, vier Balken heißt: es gibt (viel) langsamere.
    Es fehlt also die Aussage, was das bedeutet, also z.B. beim kopieren einer x MB großen Datei um wieviele Sekunden das länger dauert.
    Diese Methode des Tests kann man getrost als fragwürdig ansehen. Ich erkenne zwar, dass AV-Comparatives eine ‚unabhängige australische Organisation‘ ist, aber so was ist m.E. schlickt Murks ohne Mehrwert für die Anwender.
    Begründung: Wenn alle AV Programme kaum messbare Unterschiede liefern, so dass ich auf die relativen (kleinen) Unterschiede ausweichen muss, um einen Unterschied zu entdecken, und wenn ich als Anwender keinen Unterschied spüren kann, dann sind alle (!) AV Programme hinreichend gut.
    Noch schlimmer: Die wichtigste Grafik/Tabelle fehlt, denn daran erkennt man, dass der auf den PC Mark 10 Test bezogene Test basiert in Wirklichkeit IN RELATION zur ersten Messung gesetzt wurde. Die geht also in das Ergebnis mit ein.
    In Zahlen: Nach PC Mark 10 beträgt der Unterschied von einem System ohne AV Software zum selben System mit Microsoft Defender ganze 3,4%. Beim Benchmark ‚Sieger‘ F-Secure sind das ‚nur‘ 0,8%.
    Der Unterschied zwischen 2 F-Secure und 30 Microsoft Defender kommt nur dadurch zustande, dass die relativ ungünstigere Zahl aus der vorherigen Messung (also z.B. kopieren) in Punkte umgerechnet, und dann draufgeschlagen wird.
    Der „Impact Store“ sagt dann nur aus, dass von 190 maximalen Punkten F-Secure 187,2 und Defender 159,6 erhalten hat, also liegt das Delta, der „Impact Store“ bei F-Secure bei 2,8 und bei Microsoft Defender bei 30,4.
    Man hat also die kaum messbaren Performance Einbußen des PC Mark 10 Tests durch die erste RELATIVE Messung der AV Programme zueinander regelrecht aufgebläht, um dann einen wenig aussagekräftigen ‚Impact Score‘ zu vergeben.
    ===
    Kurz: der ganze Test ist schlicht kaum aussagekräftig. Ausser ein wenig schneller oder langsamer sagt er nichts weiter aus.
    Im Gegenteil: die Aussage, dass laut PC Mark 10 zwischen der schonendsten und belastendsten AV Lösung nur 2,6% liegen, die wurde nicht erwähnt.
    Das stellt aber in Frage, warum sich die Anwender eine AV Lösung kaufen sollten, wenn die bereits vorhandene von Microsoft das System kaum belastet?
    Ganz schlimm ist aber, dass die m.E. wichtigsten Fragen NICHT berücksichtigt werden: Kosten der AV Lösung UND Trefferquote Malware (wie gut (!) arbeitet die AV Lösung?) UND was für ‚Tools’ installiert sie noch Huckepack mit auf die Festplatte, die man evtl. bei der Installation nicht abwählen kann, und die das System womöglich mit MEHR als 2,6% PC Mark 10 Benchmark Einbuße belasten.
    ====
    Ich bin ja sonst kein Freund von Microsoft, aber dieser Test ist bezüglivh der Aussagekraft für die Tonne, denn der Windows Defender belastet das System kaum, kostet nichts, ist bei Windows enthalten, UND man kriegt nix Huckepack. Aus meiner Sicht ist er hinreichend gut, und damit aus Anwendersicht die erste Wahl.
    ====
    Wäre ich garstig, dann käme ich auf den Gedanken, dass der ganze Test nur den Zweck verfolgt, um eine Daseinsberechtigung für die anderen AV Lösungen zu kreieren. ;-)

    • Am 20. Oktober 2017 um 11:15 von DoN

      Hast Du irgendwelche Pillen genommen? Eine objektive Betrachtung eines Artikels in dem Microsoft vorkommt, von Dir?
      Zeigt, Du kannst es doch. Schade, dass dies eine Ausnahme ist.
      Sonst 100% volle Zustimmung

      • Am 20. Oktober 2017 um 13:50 von Klaus der Ratlose

        Ich bin immer objektiv, das merkst Du nur nicht, weil Du verbl… – ich sage es nicht. ;-)

      • Am 20. Oktober 2017 um 22:02 von Antiappler

        Und er hat doch irgendwelche Pillen genommen. ;-)
        Was er mit seinem Kommentar von 13:50 Uhr bestätigt hat. ;-)

        Ich hatte allerdings auch ähnliches vermutet, als ich diese schon fast Lobeshymne auf Microsoft gelesen habe.

    • Am 21. Oktober 2017 um 11:47 von alternativr

      Word

  • Am 20. Oktober 2017 um 8:50 von Klaus der Skeptische

    Hm, also ich werde ja immer misstrauisch, wenn in einer Grafik zwar Zahlen genannt werden, aber die Legende fehlt, die mir erklärt, was die Zahlen ausdrücken sollen.
    Leider fehlt der Link zum PDF.
    „Die Leistungseinbußen wurden mit PC Mark 10 Professional gemessen.“
    Auch das hilft nichwirklich weiter, weil ohne Einheiten die Zahlen nichts oder sehr viel aussagen können. Und bei den grünen Balken kann ‚Kein Balken‘ ebenfalls viel oder wenig bedeuten.
    Nur als Beispiel: Wenn die Zahl 30,4 von Microsoft als absolute Zahl gemeint ist, um die der die Benchmark sich verschlechtert, so würde das bei einer CPU mit einer PC Mark 10 von 3.000 etwa ein Prozent Leistungseinbuße bedeuten – der Sieger hätte 0,1 Prozent. Sieht dramatisch aus, aber BEIDES wäre nicht spürbar, weil spürbare Verschlechterungen in der GUI erst ab etwa 30% eintreten.
    Wenn aber die Zahl doch prozentual wäre, dann würde Defender 30,4% Leistungseinbuße bedeuten, wäre also spürbar, und dann würde das ganz klar bedeuten: Finger weg vom Defender.
    Bezüglich Balken könnte der Unterschied zwischen Kein Balken‘ und drei Balken ebenfalls sehr gering, oder riesengroß sein – man weiß es ohne Einheiten oder Agenda nicht.
    Mein Eindruck ist, dass das erste gemeint ist, als absolute Punkzahl vom Benchmark. Dann wäre der Test aber vom Ergebnis her für die User weitgehend belanglos. Wer auf 1% Performance wert legt, der installiert wahrscheinlich erst gar keinen Scanner. Und bei wem das keine Rolle spielt, der merkt bezüglich Performance keinen Unterschied, und wird mit der kostenlosen Defender Lösung zufrieden sein – erst recht, weil diese bereits zum System dazu gehört, und nicht in Form einer Suite daher kommt, die einem irgendwelche tollen ‚Tools‘ mitinstalliert, die die meisten gar nicht brauchen und wollen.
    Dann wäre in meinen Augen dieser ‚Test‘ nichts als Marketing.
    Der Link zum PDF würde Klarheit schaffen. Fehlen auch da die Einheiten oder näheren Angaben, würde die Intention deutlich. An Zufälle würde ich dann nicht glauben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *