Kampf den Viren: Vier Anwendungen im Test

Wenn der LAN- und Internetzugang eines Unternehmens immer langsamer wird und schließlich gar nicht mehr funktioniert, verdeutlicht das besser als alles andere, dass trotz sorgfältiger Aktualisierung aller PC-Patches und Antivirensignaturen weniger gewissenhafte Kollegen Anlass zur Sorge bereiten können.

Hier geht es um das Problem einer Netzwerkattacke durch eine Variante des W32/Sdbot AKA W32.HLLW.Donk-Wurms. Dieser Wurm überwand die Firewalls von RMIT – höchstwahrscheinlich einfach über einen ungeschützten Laptop. Sobald er die Firewall hinter sich gebracht hatte, machte er alle PCs ausfindig, deren Signaturen nicht häufig genug aktualisiert worden waren, und überflutete schließlich das Netzwerk.

In manchen Bereichen gibt es vielleicht berechtigte Gründe, nicht zu aktualisieren; z. B. bei Tests auf Disk-Images von Clients, die in ihrem aktuellen Zustand belassen werden müssen. Doch in den meisten Fällen handelt es sich schlicht und einfach um Nachlässigkeit.

Wie ist dieses Problem also zu bewältigen?

Die einfachste Methode ist das Erstellen einer Richtlinie, dass auf jedem PC bei der Antivirensoftware ein automatisches Update von der Website des jeweiligen Herstellers konfiguriert sein muss.

Hierbei entsteht zudem ein eklatantes Problem: der Netzwerkverkehr und die damit verbundenen Kosten. Angenommen, bei der Antivirensoftware jedes Benutzers ist eine wöchentliche Aktualisierung konfiguriert – was nicht wirklich oft genug ist, aber es geht hier nur um ein Beispiel – und die typische Größe der Signaturdatei ist 1 MByte. Jeder Benutzer lädt folglich im Jahr 52 MByte herunter – nicht sehr viel, doch wenn man es mit der Anzahl der PCs multipliziert, vielleicht 10.000 oder mehr, sind 520 GByte doch eine ganze Menge.

Bei sehr großen Sites ist es wahrscheinlich einfacher und billiger, die Updates des Herstellers auf dem Server im eigenen Haus zu spiegeln und somit die Kosten bedeutend zu senken.

Doch es hat sich gezeigt, dass es meist zu einem alles andere als perfektem Ergebnis führt, wenn man sich darauf verlässt, dass die Benutzer die Updates von einem Server übernehmen.

Eine zuverlässigere Option besteht darin, einen Server so einzurichten, dass er die Updates zu den PCs der Benutzer kopiert. Das hat zudem den Vorteil, dass der Server nur dann tätig wird, wenn ein neues Update verfügbar ist. Wenn die Benutzer dagegen die Updates abrufen, müssen sie regelmäßig überprüfen, ob es neue gibt, was wiederum unnötig Bandbreite in Anspruch nimmt.

Im Folgenden lesen Sie die Testberichte über ETrust AntiVirus 7.0, Network Associates – McAfee VirusScan Enterprise 7.0 & ePolicy Orchestrator, Sophos AntiVirus & Enterprise Manager, Trend Micro-AntiVirus und einen Anwendungsbericht über Eset-NOD32.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

10 Stunden ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

1 Tag ago

Bedrohungen in Europa: Schwachstellen in der Lieferkette dominieren

Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…

2 Tagen ago

Bericht: Apple arbeitet an faltbarem iPad

Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…

2 Tagen ago

HPE baut Supercomputer am Leibniz-Rechenzentrum

Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.

3 Tagen ago

Bund meldet Fortschritte in der Netzversorgung

Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…

3 Tagen ago