„Gray Bots“ mit genKI greifen Websites bis zu einer halben Million Mal pro Tag an

Automatisierte Programme sind nicht offensichtlich schädlich, aber durchsuchen das Internet mit dem Ziel, Infos von Web-Anwendungen zu extrahieren.

Zwischen Dezember 2024 und Ende Februar 2025 gingen laut den Threat-Analysten von Barracuda Millionen von Anfragen von Bots mit generativer KI wie ClaudeBot oder dem Bytespider-Bot von TikTok bei Web-Anwendungen ein. Eine überwachte Web-Anwendung erhielt über einen Zeitraum von 30 Tagen 9,7 Millionen Anfragen von Scraper-Bots mit generativer KI. Eine weitere überwachte Web-Anwendung erhielt an einem einzigen Tag über eine halbe Million Anfragen von Scraper-Bots mit generativer KI. Die Analyse des Gray-Bot-Traffics, der auf eine weitere überwachte Web-Anwendung abzielte, ergab, dass die Anfragen – im Durchschnitt etwa 17.000 pro Stunde – über einen Zeitraum von 24 Stunden relativ konstant blieben.

Scraping durch Gray Bots beeinflusst Web-Performance

„Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten“, sagt Rahul Gupta von Barracuda. „Sie sind in der Lage, riesige Mengen sensibler, geschützter oder kommerzieller Daten abzugreifen sowie den Datenverkehr von Web-Anwendungen zu überlasten und Betriebsabläufe zu stören. Häufiges Scraping durch Gray Bots kann die Web-Performance beeinträchtigen und ihre Präsenz auf Websites kann Website-Analysen verzerren, was zu irreführenden Erkenntnissen führt und die Entscheidungsfindung beeinträchtigt. Für viele Organisationen ist die Verwaltung von Gray-Bot-Traffic zu einem wichtigen Teil ihrer Strategien zur Anwendungssicherheit geworden.“

Um sich gegen Gray Bots mit generativer KI und das Auslesen von Informationen zu schützen, können Websites die Datei robots.txt nutzen. Dabei handelt es sich um eine Code-Zeile, die der Website hinzugefügt wird und einem Scraper signalisiert, dass er keine Daten aus der Website extrahieren darf. Die Datei robots.txt ist jedoch nicht rechtsverbindlich, der spezifische Name des Scraper-Bots muss ihr hinzugefügt werden und nicht jeder Nutzer eines Bots mit generativer KI hält sich an diese Vorgabe.

Bot-Schutz implementieren

Organisationen können ihren Schutz vor unerwünschten Gray Bots mit generativer KI verbessern, indem sie einen Bot-Schutz implementieren, der in der Lage ist, die Aktivitäten von Scraper-Bots mit generativer KI zu erkennen und zu blockieren. KI- und Machine-Learning-Funktionen unterstützen dabei, die schnell wachsende Bedrohungen durch Gray Bots mithilfe von verhaltensbasierter Erkennung, adaptivem Machine Learning, umfassendem Fingerprinting und Echtzeit-Blockierung unter Kontrolle zu halten.

 

Silicon - IT Deep Dive
sponsorisé
Deutsche Telekom: KI im Mittelstand

Themenseiten: Bot, Cyberbedrohung, Cyberkriminalität, KI, KI-Bots

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu „Gray Bots“ mit genKI greifen Websites bis zu einer halben Million Mal pro Tag an

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *