Categories: Workspace

42 Prozent des Webtraffics wird von Bots verursacht

Bots sind für 42 Prozent des weltweiten Internetdatenverkehrs verantwortlich. Das geht aus dem aktuellen Bericht „State of the Internet“ von Akamai hervor. Die Studie zeigt auch, dass 65 Prozent dieser Bots als schädlich einzustufen sind.

Der E-Commerce-Sektor ist demnach am stärksten von riskantem Bot-Traffic betroffen. Das liegt Akamai zufolge an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen. Während einige Bots für Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt. Diese sollen sich negativ auf das Geschäft und das Kundenerlebnis auswirken. „Es gibt keine Gesetze, die die Verwendung von Scraper-Bots verbieten. Aufgrund der Zunahme von KI-Botnets sind sie nur schwer zu erkennen. Trotzdem gibt es einige Möglichkeiten damit umzugehen“, teilte Akamai mit.

„Bots bringen weiterhin große Herausforderungen mit sich, die Anwendungs- und API-Eigentümern zahlreiche Probleme bereiten können“, sagte Patrick Sullivan, CTO, Security Strategy bei Akamai. „Dazu gehört auch das Scraping. Damit können Angreifer Web-Daten stehlen und Websites erstellen, die eine Marke imitieren. Die Scraper-Landschaft ändert sich auch aufgrund von Entwicklungen wie Browser ohne Header. Dadurch müssen Unternehmen auf Botaktivitäten reagieren, die ausgefeilter sind als solche auf JavaScript-Basis.“

Akamai warnt zudem, dass Angreifer mit Scraper-Bots zudem komplexere Phishing-Kampagnen generieren können. Dazu erfassen sie Produktbilder, Beschreibungen und Preisinformationen und erstellen gefälschte Schaufenster oder Phishing-Websites. Diese sollen darauf abzielen, Anmeldedaten oder Kreditkarteninformationen zu stehlen.

Bots können der Studie zufolge auch eingesetzt werden, um die missbräuchliche Erstellung von Konten zu erleichtern. Dies soll bis zu 50 Prozent der Verluste durch Betrug ausmachen.

„Es gibt vielfältige technische Auswirkungen, denen Unternehmen durch Scraping ausgesetzt sind – unabhängig davon, ob das Scraping mit schädlichen oder guten Absichten durchgeführt wurde“, so Akamai weiter. „Dazu gehören eine Verschlechterung der Website-Performance, eine Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten von Phishing-Websites, erhöhte Rechenkosten und vieles mehr.“

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

13 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

15 Stunden ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

15 Stunden ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

19 Stunden ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

19 Stunden ago

Latrodectus: Gefährlicher Nachfolger von IcedID

Latrodectus, auch bekannt als BlackWidow, ist auch unter dem Namen LUNAR SPIDER bekannt.

19 Stunden ago