@KoSSo
Es gibt schon Möglichkeiten
Aber alles nur bedingt erfolgsversprechend
Beispiel Logfile anfordern !!!
Ich beschäftige mich erst seit einer Woche mit diesen Forum weil ein Kunde das auf seinen seiten haben möchte.
Es gibt jedoch einige Mods (php.com) die Spam erfolgreich abwehren
Hier auf diesen Forum gibt es bestimmt Profis die sich besser mit der Programstruktur auskennen.
Dennoch ergänzende Hinweise
zu mein post oben
Es ist möglich den User Agent auszuwerten
Beispiel:
$agent = strtolower($HTTP_USER_AGENT);
if
((strstr($agent,"anarch")) ||
//(strstr($agent ,"mozilla")) || //zum testen ob es geht
(strstr($agent ,"blackwidow")) ||
(strstr($agent ,"block")) ||
(strstr($agent ,"capture")) ||
(strstr($agent ,"chinaclaw")) ||
(strstr($agent ,"crescent")) ||
(strstr($agent ,"copier")) ||
(strstr($agent ,"cherrypicker")) ||
(strstr($agent ,"disco")) ||
(strstr($agent ,"diibot")) ||
(strstr($agent ,"demon")) ||
(strstr($agent ,"ecatch")) ||
(strstr($agent ,"eirgrabber")) ||
(strstr($agent ,"emailsiphon")) ||
(strstr($agent ,"emailwolf")) ||
(strstr($agent ,"emailcollector")) ||
(strstr($agent ,"webpictures")) ||
(strstr($agent ,"extractorpro")) ||
(strstr($agent ,"extractor")) ||
(strstr($agent ,"eyenetie")) ||
(strstr($agent ,"flashget")) ||
(strstr($agent ,"getright")) ||
(strstr($agent ,"go!zilla")) ||
(strstr($agent ,"go-ahead-got-it")) ||
(strstr($agent ,"grabnet")) ||
(strstr($agent ,"grafula")) ||
(strstr($agent ,"hmview")) ||
(strstr($agent ,"httrack")) ||
(strstr($agent ,"ia_archiver")) ||
(strstr($agent ,"stripper")) ||
(strstr($agent ,"sucker")) ||
(strstr($agent ,"icab")) ||
(strstr($agent ,"interget")) ||
(strstr($agent ,"interarchy")) ||
(strstr($agent ,"ninja")) ||
(strstr($agent ,"internetseer.com")) ||
(strstr($agent ,"jetcar")) ||
(strstr($agent ,"joc")) ||
(strstr($agent ,"larbin")) ||
(strstr($agent ,"lepor")) ||
(strstr($agent ,"linkwalker")) ||
(strstr($agent ,"link")) ||
(strstr($agent ,"mass")) ||
(strstr($agent ,"microsoft.url")) ||
(strstr($agent ,"midown")) ||
(strstr($agent ,"msiecrawler")) ||
(strstr($agent ,"pix")) ||
(strstr($agent ,"pavuk")) ||
(strstr($agent ,"newt")) ||
(strstr($agent ,"msfrontpage")) ||
(strstr($agent ,"indy")) ||
(strstr($agent ,"navroad")) ||
(strstr($agent ,"nearsite")) ||
(strstr($agent ,"netants")) ||
(strstr($agent ,"netspider")) ||
(strstr($agent ,"vampire")) ||
(strstr($agent ,"netzip")) ||
(strstr($agent ,"nicerspro")) ||
(strstr($agent ,"octopus")) ||
usw.
und die leitest du dann
(strstr($agent ,"zeus")))
{
header("Location:
http://www.domain/fehlerseite/error.html");
exit();
}
So kannst Du erstmal die bekannten Spamer-Programme ausschließen
geht natürlich auch mit .htaccess eleganter
Eine Frage bleibt jedoch Spam gibt es ja schon länger, warum sind dazu sowenig Informationen hier im Forum zu finden
med Admin