Snippet - Ein Forum vor Spidern schützen

Fragen zu allen Themen rund ums Programmieren außerhalb von phpBB können hier gestellt werden - auch zu anderen Programmiersprachen oder Software wie Webservern und Editoren.
Antworten
Samariel
Mitglied
Beiträge: 214
Registriert: 04.04.2004 11:50
Kontaktdaten:

Snippet - Ein Forum vor Spidern schützen

Beitrag von Samariel »

Hi,

betreffend diesem Snippet: http://www.phpbb.de/topic63121.html

wird auf dieser Seite: http://www.robotstxt.org/wc/norobots.html#examples

folgendes mit vorgeschlagen:
# go away
User-agent: *
Disallow: /
welches (verzeiht die dämliche Frage) beudet, dass sämtliche Verzeichnisse und auch Dateien auf dem Server gesperrt werden?
Oder muss ich wahrhaftig alles manuell eingeben - und wenn ja, wie geht es dann noch mit den Dateien, welches sich im root befinden?

Vielen Dank im Vorraus...


MfG, Samariel ;)
Seltsam erscheint unsere Lage auf dieser Erde. Jeder von uns erscheint da unfreiwillig
und ungebten zu kurzem Aufenthalt, ohne zu wissen, warum und wozu.

[Albert Einstein]
PhilippK
Vorstand
Vorstand
Beiträge: 14662
Registriert: 13.08.2002 14:10
Wohnort: Stuttgart
Kontaktdaten:

Beitrag von PhilippK »

Die Dateien sind ja nur für die Suchmaschinen gesperrt - nicht für die normalen Browser...
Sonst wird dir nichts anderes übrig bleiben, als die Verzeichnisse einzelnd anzugeben. Die Allow-Deriktive funzt noch nicht wirklich...

Gruß, Philipp
Kein Support per PN!
Der Sozialstaat ist [...] eine zivilisatorische Errungenschaft, auf die wir stolz sein können. Aber der Sozialstaat heutiger Prägung hat sich übernommen. Das ist bitter, aber wahr. (Horst Köhler)
Meine Mods
Antworten

Zurück zu „Coding & Technik“