Optimale Robots.txt

Fragen zur Bedienung von phpBB 3.0.x, Probleme bei der Benutzung und alle weiteren Fragen inkl. Update auf die neuste phpBB 3.0.14 Version
Forumsregeln
phpBB 3.0 hat das Ende seiner Lebenszeit überschritten
phpBB 3.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 3.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf die neuste phpBB-Version, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Antworten
tom667
Mitglied
Beiträge: 2
Registriert: 12.12.2005 14:22

Optimale Robots.txt

Beitrag von tom667 »

Hallo zusammen!

Wenn ich mir in den Webmaster-Tools ansehe, welche Keywords Google für meine Seite relevant findet, tauchen da auch Foren spezifische Begriffe wie "Anmelden", "Wohnort" usw. auf. Kann man durch eine geschickte Konfiguration der Robots.txt dafür sorgen, dass Bots die Elemente des Forums, die nichts mit dem Inhalt zu tun haben, gar nicht zu sehen bekommt? Welche Bereiche muss man dann ausschließen?

Gruß
Tom
Benutzeravatar
redbull254
Ehemaliges Teammitglied
Beiträge: 10379
Registriert: 05.01.2006 13:01
Kontaktdaten:

Re: Optimale Robots.txt

Beitrag von redbull254 »

Hallo erstmal,

so könnte zum Beispiel der Inhalt der robots.txt aussehen die Du ins Root-Verzeichnis von phpBB33 legst und unter den Webmaster-Tools bearbeiten kannst.
User-agent: *
Disallow: /ucp.php
Disallow: /faq.php
Disallow: /updatecheck/
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /viewbug.php
Ich habe wahrscheinlich schon einige Dateien ausgeschlossen die es bei Dir nicht gibt. Betrachte es nur als Muster. ;-)
Beste Grüße
Walter
Benutzeravatar
Dr.Death
Moderator
Moderator
Beiträge: 17473
Registriert: 23.04.2003 08:22
Wohnort: Xanten
Kontaktdaten:

Re: Optimale Robots.txt

Beitrag von Dr.Death »

Hier mal eine etwas erweiterte robots.txt

User-agent: *
#Crawl-delay: 100
Disallow: /adm
Disallow: /cache
Disallow: /develop
Disallow: /docs
Disallow: /files
Disallow: /includes
Disallow: /install
Disallow: /language
Disallow: /store
Disallow: /styles
Disallow: /common.php
Disallow: /config.php
Disallow: /cron.php
Disallow: /download.php
Disallow: /faq.php
Disallow: /mcp.php
Disallow: /posting.php
Disallow: /report.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewonline.php
Disallow: /memberlist.php
Disallow: /search.php
Wer möchte kann dadurch die Indizierungsrate der Bots ein wenig bremsen:

Einfach die Zeile:

Code: Alles auswählen

#Crawl-delay: 100
mit

Code: Alles auswählen

Crawl-delay: 100
ersetzen.

Ggf. könnte Ihr den Wert 100 beliebig anpassen ..... ( Der Bot darf nur alle 100 Sekunden eine Seite indizieren )
Antworten

Zurück zu „[3.0.x] Administration, Benutzung und Betrieb“