Seite 5 von 5

Re: [3.3] Ungewünschte Besucher-Rekorde

Verfasst: 31.10.2025 23:41
von LukeWCS
Kirk hat geschrieben: 31.10.2025 15:29 Vorher waren es ca. 5000-6000 danach nur noch ca. 1200 Gäste.
Hey Udo

Ich habe mir das RegEx von Blacktiger und AmigoJack genauer angeschaut und das dann auch mal interessehalber auf meine Logs der letzten 30 Tage angewendet um zu sehen, wie oft diese Regel bei mir zugeschnappt hätte: 10389 mal. Da die RegEx Regel auf alle 30 Logs reagiert hat, sind das also rein rechnerisch gerade mal 346 Hits pro Tag durchschnittlich. Das sind Werte, die bei mir in den Logs als harmlos/irrelevant gelten können, denn da produzieren andere Bots bei weitem mehr Hits und Traffic. Aber: jedes Bisschen hilft, denn die schiere Masse an Bots/Störungen ist es, was den Server ausbremst oder sogar lahmlegt.

Wie schon erwähnt, das Problem zeigt sich bei jedem anders. Nicht jeder hat mit denselben Bots und Problemen zu kämpfen wie andere und nicht jede Lösung ist für alle gleich wirksam und manche Lösungen funktionieren auch schon rein technisch gar nicht bei jedem, weil das eben auch vom Hoster abhängig ist.

Allgemein kann man aber sagen, dass Alibaba Cloud im .com Thema eine öfters genannte Quelle des Ärgers darstellt, denn von dort sind die Störungen wirklich massiv. Und das kann ich laut meiner Log Recherche bestätigen.

Re: [3.3] Ungewünschte Besucher-Rekorde

Verfasst: 02.11.2025 12:11
von Talk19zehn
Hello again,
Ländersperren: Reg. Benutzer-X macht Urlaub in einem Land, welches gesperrt ist ... - teilt es mit und schwupps passieren diese "bösen Buben" (Bösewichte), weil du, er, sie, ich u. U. freundlich ist, diese Sperre für jenen Zeitraum aufzuheben.
Wenn die obige Liste ein wenig hilft, - bitte gerne. Vielleicht oder wahrscheinlich ist sie inzwischen überholt (?). Mit fehlt die Zeit, mich darum zu kümmern.

Meine letzte damalige Sicherung 17.11.2024 - .htaccess (LB) umfasste doch tatsächlich *2924 Zeilen, um die "bösen Buben" einzufangen.
"Spider-Trap" hat viel dazu beigetragen; Dank dafür an Thomas Zeithaml.

*)Von der robots mal ganz und gar schweigen zu wollen ....

Was aus jenem Bot und in Folge aus jenem Vorgang Cloudflare vs. Perplexity-Bot geworden ist, kann ich nirgends finden:
Perplexity soll Webseiten-Blockaden mit getarnten Crawlern umgehen
von Maximilian Schreiner vom 6. August 2025
Quelle: https://the-decoder.de/perplexity-soll- ... n-umgehen/
Tja, Tarnung im WWW als Seitenbetreiber beherrschen, auf eigene Bedürfnisse ausrichten zu wollen, zu erkennen ist neben einem Resultat, wie (Beispiel) "Content-Klau" heutzutage eine wirkliche Last.

LG