SEO: double-content/title -> pots_per_page für Bots ändern?
Verfasst: 18.09.2009 11:22
Hallo zusammen,
Google "beschwert" sich über "Doppelte "title"-Tags".
Viele davon kommen durch:
/phpBB/viewtopic.php?f=35&t=10038
/phpBB/viewtopic.php?f=35&t=10038&start=0
/phpBB/viewtopic.php?f=35&t=10038&start=30
/phpBB/viewtopic.php?f=35&t=10038&start=60
etc ... dass also jede "Seite" - wegen des Seitenumbruchs - als eigene Seite (mit dem selben title) indexiert wird.
Bei den o.g. URLs handelt es sich NICHT um inhaltsgleiche Seiten (obwohl der "title" der selbe ist), da ja auf jeder Seite andere Beiträge sind.
Google hat die Seiten auch einzeln gelistet. Allgemein sind meine Forenbeiträge sind bei Google auch sehr gut positioniert; Google scheint also - trotz "Doppelte "title"-Tags" kein Problem damit zu haben.
(Das Thema Anti-Double-Content - kanonische URL-Umschreibung trifft hier also nicht zu)
Die Frage ist nun, ob es Sinn macht, für Google, bzw. Bots ( <!-- IF S_IS_BOT> ) allgemein, den Seitenumbruch (posts_per_page) zu deaktivieren, so dass sie nur eine einzige Seite pro Thema mit allen Posts - also OHNE Seitenumbruch - zu "lesen" bekommen.
Wahrscheinlich nicht, denn da ja auf jeder Seite andere Beiträge vorhanden sind, macht es ja auch Sinn, dass Google-Suchende direkt auf die entsprechende (indexierte Unter-)Seiten zugreifen können ... oder?
Wie seht ihr das?
DANKE!
Google "beschwert" sich über "Doppelte "title"-Tags".
Viele davon kommen durch:
/phpBB/viewtopic.php?f=35&t=10038
/phpBB/viewtopic.php?f=35&t=10038&start=0
/phpBB/viewtopic.php?f=35&t=10038&start=30
/phpBB/viewtopic.php?f=35&t=10038&start=60
etc ... dass also jede "Seite" - wegen des Seitenumbruchs - als eigene Seite (mit dem selben title) indexiert wird.
Bei den o.g. URLs handelt es sich NICHT um inhaltsgleiche Seiten (obwohl der "title" der selbe ist), da ja auf jeder Seite andere Beiträge sind.
Google hat die Seiten auch einzeln gelistet. Allgemein sind meine Forenbeiträge sind bei Google auch sehr gut positioniert; Google scheint also - trotz "Doppelte "title"-Tags" kein Problem damit zu haben.
(Das Thema Anti-Double-Content - kanonische URL-Umschreibung trifft hier also nicht zu)
Die Frage ist nun, ob es Sinn macht, für Google, bzw. Bots ( <!-- IF S_IS_BOT> ) allgemein, den Seitenumbruch (posts_per_page) zu deaktivieren, so dass sie nur eine einzige Seite pro Thema mit allen Posts - also OHNE Seitenumbruch - zu "lesen" bekommen.
Wahrscheinlich nicht, denn da ja auf jeder Seite andere Beiträge vorhanden sind, macht es ja auch Sinn, dass Google-Suchende direkt auf die entsprechende (indexierte Unter-)Seiten zugreifen können ... oder?
Wie seht ihr das?
DANKE!