Google Links sind komisch...

Probleme bei der regulären Arbeiten mit phpBB, Fragen zu Vorgehensweisen oder Funktionsweise sowie sonstige Fragen zu phpBB im Allgemeinen.
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.1, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
IPB_Flüchtling
Mitglied
Beiträge: 1862
Registriert: 23.12.2004 22:46

Beitrag von IPB_Flüchtling »

Hallo FatFreddy,

vielleicht machen wir uns in Bezug auf Google auch einfach zuviel Gedanken. Perfekt wird es sowieso nie. Aber was mit halbwegs vertretbarem Aufwand getan werden kann, haben wir getan.

(Du ganz sicher; ich halt, so gut ich es vermochte. Bin dennoch stolz auf mich. Gestern habe ich auch noch die Jumpbox restlos entfernt, was zwar für Sumas nichts bringt, wohl aber für die Performance des Forums. Musste an die 33 Dateien dafür anpassen... Und optisch gefällt es mir jetzt auch besser.)

WICHTIG:

Ich habe mir erlaubt, Deine robots.txt anzusehen, und musste feststellen, dass sie nicht valide ist. Kannst Du z.B. mit diesen Validatoren nachprüfen:

http://www.searchengineworld.com/cgi-bin/robotcheck.cgi
http://tool.motoricerca.info/robots-checker.phtml

Das Hauptproblem besteht darin, dass Wildcards (*) nur von Google unterstützt werden. Ändere also am besten mal in der ersten Zeile User-agent: * in User-agent: Googlebot
Wiederhole dann am Ende Deiner robots.txt für die anderen Robots (diesmal also wirklich für User-agent: *) dieselben Disallow-Regeln noch einmal, allerdings mit Ausnahme der Wildcards.

Aus Disallow: /profile.php* wird also für die nicht zu Google gehörenden Bots Disallow: /profile.php usw. usf.
Das müsste eigentlich reichen, um ALLE mit profile.php BEGINNENDEN Dateien für die Bots zu sperren. Allerdings habe ich jüngst in irgendeinem phpbb.com-Thread gelesen, dass es wichtig sein könnte, hinten noch ein Fragezeichen anzufügen. Also:

Disallow: /profile.php?
Disallow: /posting.php?
usw. usf.

Frag mich nicht nach der Quelle - finde ich wohl nicht mehr. Um auf Nummer sicher zu gehen, sieht meine eigene robots.txt mittlerweile so aus:

User-agent: Googlebot
# alle Disallow-Regeln speziell für Google, die zum Teil auch Wildcards enthalten

User-agent: *
Disallow: /profile.php
Disallow: /profile.php?
Disallow: /posting.php
Disallow: /posting.php?
usw. usf.

Ob es einen Vorteil bringt, weiß ich natürlich nicht. Bei einem Punkt bin ich mir aber ziemlich sicher:

Du solltest in Deiner robots.txt, um doppelten Content nach Möglichkeit zu vermeiden, auch noch folgende Dateien sperren:

Disallow: /index.php
Disallow: /viewforum.php
Disallow: /viewtopic.php

Diese Dateien haben die Sumas nicht mehr zu interessieren, da Du ja ein umfangreiches Rewriting einsetzt!!!
Für den Googlebot - und nur für diesen! - kannst Du natürlich auch noch nach Belieben Wildcards hinzufügen (z.B. Disallow: /viewtopic*).

Weshalb ich das Ganze überhaupt schreibe: Ein vernünftiges Rewriting gepaart mit einer ordentlichen robots.txt sollte eigentlich genügen, um Google zufrieden zu stellen und doppelten Content zu vermeiden. Und perfekt wird es sowieso nie. Aber ich glaube, das sagte ich schon.

Beste Grüße,
IPB_Flüchtling
Benutzeravatar
tas2580
Ehemaliges Teammitglied
Beiträge: 3029
Registriert: 01.07.2004 05:42
Wohnort: /home/tas2580
Kontaktdaten:

Beitrag von tas2580 »

Perfekt wird es sowieso nie
Ein Forum das genutzt wird perfekt zu bekommen ist wirklich nicht so leicht möglich aber nahe dran geht *klick*. Theoretisch kann man ein phpBB schon perfekt für Sumas optimieren, sie hier, allerdings wurde da auch einiges für Gäste entfernt.

Die Links zum letzten Beitrag lassen sich übrigends auch wunderbar umschreiben siehe hier. Von der Robots.txt halte ich nicht viel weil sie doch immer wieder ignoriert wird, deshalb sollte man alle Links die unschön sind entweder umschreiben oder ausblenden.
Heute ist ein guter Tag um dein Forum zu testen.
Ehemaliger Benutzername: [BTK] Tobi
Benutzeravatar
FatFreddy
Mitglied
Beiträge: 1937
Registriert: 25.07.2004 15:52
Kontaktdaten:

Beitrag von FatFreddy »

IPB_Flüchtling hat geschrieben:vielleicht machen wir uns in Bezug auf Google auch einfach zuviel Gedanken. Perfekt wird es sowieso nie. Aber was mit halbwegs vertretbarem Aufwand getan werden kann, haben wir getan.
Was G. angeht, hast Du recht. Für mich ist das kleine Forum mittlerweile hauptsächlich Spielwiese für Experimente. Hier kann ich Dinge testen, die ich eventuell auf "wichtigen" Pages einsetzen möchte.
Aber manchmal ist man wirklich blöd. Seit Wochen wundere ich mich über ständig neu auftauchende dyn. Links in den Sumas und jetzt fällt mir auf, daß G. meinen Forumspy gefunden hat, der bis gerade von Optimierung noch nichts gesehen hatte. :evil:
IPB_Flüchtling hat geschrieben:Ich habe mir erlaubt, Deine robots.txt anzusehen, und musste feststellen, dass sie nicht valide ist.
Danke, gerade diese blöden Schreibfehler sind ärgerlich.
Ansonsten hat sie bis jetzt gut funktioniert. G. hat sie meistens beachtet.


FatFreddy
Watch out where the huskies go, don't you eat the yellow snow...
Mehr dazu im Reiseforum InselTalk.de.
Tupperdosensucher schauen ins Geocachingforum.
Antworten

Zurück zu „phpBB 2.0: Administration, Benutzung und Betrieb“