Double Content, jede URL 2 (3) mal.

Fragen zur Bedienung von phpBB 3.0.x, Probleme bei der Benutzung und alle weiteren Fragen inkl. Update auf die neuste phpBB 3.0.14 Version
Forumsregeln
phpBB 3.0 hat das Ende seiner Lebenszeit überschritten
phpBB 3.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 3.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf die neuste phpBB-Version, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Antworten
formel1
Mitglied
Beiträge: 36
Registriert: 01.05.2006 17:03
Kontaktdaten:

Double Content, jede URL 2 (3) mal.

Beitrag von formel1 »

Hallo Leute, in den Suchmaschinen findet sich jede URL meines Forums doppelt, und zwar werden die URL`s wie folgt gespeichert:
/viewtopic.php?f=51&p=8513
/viewtopic.php?f=51&t=3476
Ist das normal? Mir wäre es ja lieber, es würde jede URL nur einmal erscheinen. Tipps aus Themen dieses Forums hier brachten keinen Erfolg - oder ich habe die richtigen Tipps nicht gefunden... :roll:

Wäre schön, wenn jemand eine Idee hätte.
Vielen Dank im Voraus.

Edit:
Als
/viewtopic.php?t=3476
findet sich die URL zum dritten Mal, ist nicht schön... :roll:
Benutzeravatar
redbull254
Ehemaliges Teammitglied
Beiträge: 10379
Registriert: 05.01.2006 13:01
Kontaktdaten:

Re: Double Content, jede URL 2 (3) mal.

Beitrag von redbull254 »

Hallo erstmal,

kann es sein, das Du Meta-Tags in die overall_header.html eingebaut hast?
Beste Grüße
Walter
formel1
Mitglied
Beiträge: 36
Registriert: 01.05.2006 17:03
Kontaktdaten:

Re: Double Content, jede URL 2 (3) mal.

Beitrag von formel1 »

Das habe ich, wieso?
Benutzeravatar
redbull254
Ehemaliges Teammitglied
Beiträge: 10379
Registriert: 05.01.2006 13:01
Kontaktdaten:

Re: Double Content, jede URL 2 (3) mal.

Beitrag von redbull254 »

Das ist der Grund, warum Du doppelten Content drin hast. Die overall_header.html wird überall aufgerufen und sammelt so mit den Meta-Tags alles auf, was sie findet.

Wenn es die Meta-Tags sind, die ich meine.
Beste Grüße
Walter
formel1
Mitglied
Beiträge: 36
Registriert: 01.05.2006 17:03
Kontaktdaten:

Re: Double Content, jede URL 2 (3) mal.

Beitrag von formel1 »

Aber die einzelnen Seiten sind ja direkt durch jeweils drei URL`s aufrufbar. :x

Erst mal habe ich jetzt die Robot-Datei angepaßt:
Disallow: /viewtopic.php?f=*&p=*
Disallow: /viewtopic.php?t=*&f=*
Jetzt speichert Google noch zwei URL`S:
/viewtopic.php?f=51&t=1948
/viewtopic.php?t=1948
Die erste URL ist klar, die Zweite wird so an Google durch die Sitemap überliefert. In einigen Tagen werde ich dann die Erste
/viewtopic.php?f=51&t=1948
auch sperren. Allerdings ist das ja auch nicht wirklich zielführend....
Benutzeravatar
schnagga
Mitglied
Beiträge: 887
Registriert: 10.03.2006 18:26
Wohnort: Verden

Re: Double Content, jede URL 2 (3) mal.

Beitrag von schnagga »

Vielleicht ist das das Richtige für dich:
http://www.phpbb.de/community/viewtopic.php?t=186686
Backups sind was für Weicheier.
Hilfe zur künstlichen Intelligenz
formel1
Mitglied
Beiträge: 36
Registriert: 01.05.2006 17:03
Kontaktdaten:

Re: Double Content, jede URL 2 (3) mal.

Beitrag von formel1 »

Das ist schon mal nicht schlecht, allerdings übergebe ich ja über die Sitemap die URL`s als /viewtopic.php?t=x. Dann müßte also noch die Sitemap oder den link rel="canonical" abändern, den Rest dann per robots.txt sperren.

Edit: Die Sitemap übergibt nun die URL im Format "viewtopic.php?f=46&t=1102", also genau so wie die "canonical". Dann werde ich noch die robots.txt anpassen, dann sollte eigentlich wieder alles passen - oder mache ich einen Denkfehler? :roll:
Benutzeravatar
schnagga
Mitglied
Beiträge: 887
Registriert: 10.03.2006 18:26
Wohnort: Verden

Re: Double Content, jede URL 2 (3) mal.

Beitrag von schnagga »

Mit der Mod brauchst du gar nichts mehr per robots.txt sperren. Du definierst durch "canonical" ja ganz klar welche URL Google beachten soll und welche nicht. Eine falsch eingestellte robots.txt könnte mehr Schaden als Nutzen bringen!
Dein Sitemap-Link wird auch beachtet wenn es nicht deine kanonische URL ist!
Backups sind was für Weicheier.
Hilfe zur künstlichen Intelligenz
Antworten

Zurück zu „[3.0.x] Administration, Benutzung und Betrieb“