Seite 1 von 1

Snippet - Ein Forum vor Spidern schützen

Verfasst: 10.09.2004 23:36
von Samariel
Hi,

betreffend diesem Snippet: http://www.phpbb.de/topic63121.html

wird auf dieser Seite: http://www.robotstxt.org/wc/norobots.html#examples

folgendes mit vorgeschlagen:
# go away
User-agent: *
Disallow: /
welches (verzeiht die dämliche Frage) beudet, dass sämtliche Verzeichnisse und auch Dateien auf dem Server gesperrt werden?
Oder muss ich wahrhaftig alles manuell eingeben - und wenn ja, wie geht es dann noch mit den Dateien, welches sich im root befinden?

Vielen Dank im Vorraus...


MfG, Samariel ;)

Verfasst: 11.09.2004 08:36
von PhilippK
Die Dateien sind ja nur für die Suchmaschinen gesperrt - nicht für die normalen Browser...
Sonst wird dir nichts anderes übrig bleiben, als die Verzeichnisse einzelnd anzugeben. Die Allow-Deriktive funzt noch nicht wirklich...

Gruß, Philipp