Seite 1 von 1

Einzelne Files mit .htaccess schützen?

Verfasst: 27.06.2005 19:00
von Skamander
Moin Forum,

mir ist aufgefallen, daß sich einige Webcrawler meist und ausschließlich die Userprofile anschauen. Ich vermute mal, die sammeln die EMail-Adressen, damit sie diese an Spammer weiterleiten können?

Ist es daher möglich, bestimmte Files mit .htaccess schützen, die viewprofile.php zum Beispiel? Per google finde ich immer nur einen Paßwortschutz bzw. den Schutz ganzer Verzeichnisse ala:

Code: Alles auswählen

order deny,allow
allow from all
deny from 66.249.65.83
deny from 207.46.130.10
deny from 64.4.33.7
Gruß aus dem heißen Halle
Sven

Verfasst: 27.06.2005 19:11
von funfreak
soweit ich weiß, kannste die mit einer einfachen Datei schützen, nennt sich robots.txt
Da kannste die Suchmaschinen ausschließen.
Der Text in der Datei sollte dann so aussehen:

Code: Alles auswählen

User-agent: * 
Disallow: /forum/profile.php
Mehr Seiten oder eine fertige robots.txt findest Du in der ModDB

Verfasst: 27.06.2005 19:18
von Skamander
Danke erstmal für diesen Tip. Aber soweit ich weiß, KÖNNEN sich die Webcrawler daran halten, MÜSSEN es aber nicht.

Zumindest war das beim MSN-Bot so, der Sack kam alle 3 - 4 Stunden, ist durch das ganze Board gekrochen und hat so in einem Monat 50 MB Traffic verursacht. Als ich ihn per robots.txt ausperren wollte, hat den das überhaupt nicht gejuckt. Jetzt habe ich alle IP's in Richtung Redmond im ACP geblockt, nun is zumindest von der Seite Ruhe.

Ich dachte daher, das .htaccess die zuverlässigere Lösung sei.

Verfasst: 27.06.2005 19:50
von tas2580
Warum sperrst du nicht einfach die Profile für nicht angemeldete Benutzer?

Verfasst: 27.06.2005 19:54
von Skamander
Gern, wenn ich wüßte wo? Im ACP hab ich nichts gefunden.

Verfasst: 27.06.2005 19:58
von funfreak

Verfasst: 27.06.2005 20:03
von Skamander
Asso, thx.

Ich dachte jetzt, daß ist eine einfache Einstellung irgendwo.

Werd mich heute nacht mal dransetzen.