Kampf den Viren: Vier Anwendungen im Test

Wenn der LAN- und Internetzugang eines Unternehmens immer langsamer wird und schließlich gar nicht mehr funktioniert, verdeutlicht das besser als alles andere, dass trotz sorgfältiger Aktualisierung aller PC-Patches und Antivirensignaturen weniger gewissenhafte Kollegen Anlass zur Sorge bereiten können.

Hier geht es um das Problem einer Netzwerkattacke durch eine Variante des W32/Sdbot AKA W32.HLLW.Donk-Wurms. Dieser Wurm überwand die Firewalls von RMIT – höchstwahrscheinlich einfach über einen ungeschützten Laptop. Sobald er die Firewall hinter sich gebracht hatte, machte er alle PCs ausfindig, deren Signaturen nicht häufig genug aktualisiert worden waren, und überflutete schließlich das Netzwerk.

In manchen Bereichen gibt es vielleicht berechtigte Gründe, nicht zu aktualisieren; z. B. bei Tests auf Disk-Images von Clients, die in ihrem aktuellen Zustand belassen werden müssen. Doch in den meisten Fällen handelt es sich schlicht und einfach um Nachlässigkeit.

Wie ist dieses Problem also zu bewältigen?

Die einfachste Methode ist das Erstellen einer Richtlinie, dass auf jedem PC bei der Antivirensoftware ein automatisches Update von der Website des jeweiligen Herstellers konfiguriert sein muss.

Hierbei entsteht zudem ein eklatantes Problem: der Netzwerkverkehr und die damit verbundenen Kosten. Angenommen, bei der Antivirensoftware jedes Benutzers ist eine wöchentliche Aktualisierung konfiguriert – was nicht wirklich oft genug ist, aber es geht hier nur um ein Beispiel – und die typische Größe der Signaturdatei ist 1 MByte. Jeder Benutzer lädt folglich im Jahr 52 MByte herunter – nicht sehr viel, doch wenn man es mit der Anzahl der PCs multipliziert, vielleicht 10.000 oder mehr, sind 520 GByte doch eine ganze Menge.

Bei sehr großen Sites ist es wahrscheinlich einfacher und billiger, die Updates des Herstellers auf dem Server im eigenen Haus zu spiegeln und somit die Kosten bedeutend zu senken.

Doch es hat sich gezeigt, dass es meist zu einem alles andere als perfektem Ergebnis führt, wenn man sich darauf verlässt, dass die Benutzer die Updates von einem Server übernehmen.

Eine zuverlässigere Option besteht darin, einen Server so einzurichten, dass er die Updates zu den PCs der Benutzer kopiert. Das hat zudem den Vorteil, dass der Server nur dann tätig wird, wenn ein neues Update verfügbar ist. Wenn die Benutzer dagegen die Updates abrufen, müssen sie regelmäßig überprüfen, ob es neue gibt, was wiederum unnötig Bandbreite in Anspruch nimmt.

Im Folgenden lesen Sie die Testberichte über ETrust AntiVirus 7.0, Network Associates – McAfee VirusScan Enterprise 7.0 & ePolicy Orchestrator, Sophos AntiVirus & Enterprise Manager, Trend Micro-AntiVirus und einen Anwendungsbericht über Eset-NOD32.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

16 Stunden ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

17 Stunden ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

24 Stunden ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Tagen ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

2 Tagen ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

2 Tagen ago