Seite 1 von 1

Double Content, jede URL 2 (3) mal.

Verfasst: 23.10.2009 07:30
von formel1
Hallo Leute, in den Suchmaschinen findet sich jede URL meines Forums doppelt, und zwar werden die URL`s wie folgt gespeichert:
/viewtopic.php?f=51&p=8513
/viewtopic.php?f=51&t=3476
Ist das normal? Mir wäre es ja lieber, es würde jede URL nur einmal erscheinen. Tipps aus Themen dieses Forums hier brachten keinen Erfolg - oder ich habe die richtigen Tipps nicht gefunden... :roll:

Wäre schön, wenn jemand eine Idee hätte.
Vielen Dank im Voraus.

Edit:
Als
/viewtopic.php?t=3476
findet sich die URL zum dritten Mal, ist nicht schön... :roll:

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 23.10.2009 21:32
von redbull254
Hallo erstmal,

kann es sein, das Du Meta-Tags in die overall_header.html eingebaut hast?

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 23.10.2009 23:01
von formel1
Das habe ich, wieso?

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 23.10.2009 23:11
von redbull254
Das ist der Grund, warum Du doppelten Content drin hast. Die overall_header.html wird überall aufgerufen und sammelt so mit den Meta-Tags alles auf, was sie findet.

Wenn es die Meta-Tags sind, die ich meine.

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 24.10.2009 10:28
von formel1
Aber die einzelnen Seiten sind ja direkt durch jeweils drei URL`s aufrufbar. :x

Erst mal habe ich jetzt die Robot-Datei angepaßt:
Disallow: /viewtopic.php?f=*&p=*
Disallow: /viewtopic.php?t=*&f=*
Jetzt speichert Google noch zwei URL`S:
/viewtopic.php?f=51&t=1948
/viewtopic.php?t=1948
Die erste URL ist klar, die Zweite wird so an Google durch die Sitemap überliefert. In einigen Tagen werde ich dann die Erste
/viewtopic.php?f=51&t=1948
auch sperren. Allerdings ist das ja auch nicht wirklich zielführend....

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 24.10.2009 17:05
von schnagga
Vielleicht ist das das Richtige für dich:
http://www.phpbb.de/community/viewtopic.php?t=186686

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 24.10.2009 18:25
von formel1
Das ist schon mal nicht schlecht, allerdings übergebe ich ja über die Sitemap die URL`s als /viewtopic.php?t=x. Dann müßte also noch die Sitemap oder den link rel="canonical" abändern, den Rest dann per robots.txt sperren.

Edit: Die Sitemap übergibt nun die URL im Format "viewtopic.php?f=46&t=1102", also genau so wie die "canonical". Dann werde ich noch die robots.txt anpassen, dann sollte eigentlich wieder alles passen - oder mache ich einen Denkfehler? :roll:

Re: Double Content, jede URL 2 (3) mal.

Verfasst: 25.10.2009 11:38
von schnagga
Mit der Mod brauchst du gar nichts mehr per robots.txt sperren. Du definierst durch "canonical" ja ganz klar welche URL Google beachten soll und welche nicht. Eine falsch eingestellte robots.txt könnte mehr Schaden als Nutzen bringen!
Dein Sitemap-Link wird auch beachtet wenn es nicht deine kanonische URL ist!