Seite 1 von 2

Google soll mein Forum NICHT finden! Welchen Metatag?

Verfasst: 29.06.2006 13:43
von bobandrews
Wo füge ich die META TAGS genau ein, um google am Durchsuchen meines Forum zu hindern?

Das Forum und seine Beiträge darin soll für alle Aussenstehenden "unsichtbar" bleiben und auch nicht über eine Suchmaschine zu lesen sein!

Danke und Gruß
Bob

Verfasst: 29.06.2006 14:06
von tas2580
Erstell einfach eine Datei mit dem Namen robots.txt und em Inhalt

Code: Alles auswählen

User-agent: *
Disallow: /
Zusätzlich kannst du dann noch in die overall_header.tpl

Code: Alles auswählen

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
schreiben.

Verfasst: 29.06.2006 14:20
von bobandrews
[BTK] Tobi hat geschrieben:Erstell einfach eine Datei mit dem Namen robots.txt und em Inhalt

Code: Alles auswählen

User-agent: *
Disallow: /
Zusätzlich kannst du dann noch in die overall_header.tpl

Code: Alles auswählen

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
schreiben.
Vielen Dank!!

wo speichere ich die robots.txt ab?
steht dann in der robots.txt nur das genannte drin oder muss da auch html krempel mit rein?
wo genau an welcher stelle schreibe ich das in die overall_header.tpl?

Bob

Verfasst: 29.06.2006 14:25
von tas2580
Die robots.txt muss in den Docroot (domain.de/robots.txt), in die Datei muss nur das was ich oben gepostet hab.

Die Mata-Tags müssen in den head der Seite, also zwischen <head> und </head>

Edit: "Meta-Angaben" in "Meta-Tags" geändert damit alle zufrieden sind :wink:

Verfasst: 29.06.2006 14:35
von bobandrews
habe ich nun erstellt.

wo ist der docroot - ordner? habe nur docs?

oder meinst du: www.xyz.de/forum/robots.txt da hinein?

Verfasst: 29.06.2006 14:57
von tas2580
Docroot ist der Ordner auf den deine Domain verweißt. Wenn du nur den Ordner /forum/ sperren möchtest muss in die robots.txt

Code: Alles auswählen

User-agent: *
Disallow: /forum/
Die Datei lädst du dann einfach so hoch das sie unter domain.de/robots.txt erreichbar ist.

Siehe auch: http://www.google.de/support/webmasters ... swer=35302

Verfasst: 29.06.2006 15:01
von bobandrews
cool, danke,
kann ich zB auch mehrere Disallows vergeben?
zB

/forum/
/bilder/ etc?

Verfasst: 29.06.2006 16:32
von tas2580
Ja, schreibe das einfach untereinader

Code: Alles auswählen

User-agent: *
Disallow: /forum/
Disallow: /bilder/
Du kannst auch einzelne Dateien sperren

Code: Alles auswählen

Disallow: /datei.html
Für Google kannst du auch Wildcards verwenden

Code: Alles auswählen

Disallow: /datei*
sperrt alles was mit datei anfängt, also datei1.html, datei2.html usw.

Wenn du alles was Google bis jetzt schon im Index hat löschen willst, kannst du das hier machen.
Lad einfach eine robots.txt hoch in der du alles sperrst was du drausen haben willst. Danach trägst du die URL in die Console ein. Allerdings ist alles was da gesperrt wird für mind. 180 Tage aus Google drausen.

Verfasst: 29.06.2006 16:42
von bobandrews
Besten Dank! :grin:

Verfasst: 29.06.2006 18:58
von Fähnchen
Noch ein kleiner Hinweis zur robots.txt ...

es gibt noch mehr Suchmaschinen als Google, und auch Spider welche die robost.txt nicht beachten.

Wenn du die Berechtigung der einzelnen Foren entsprechend setzt, das nur registrierte Benutzer diese sehen und darin lesen können, wäre das der wirksamste Schutz. :wink:

Ansonsten könnte dieser Beitrag noch interessant sein für dich:
http://www.phpbb.de/viewtopic.php?t=63121