Seite 1 von 1

Short URL und doppelter Content

Verfasst: 03.05.2005 18:59
von yellowFox
Hallo Leute

Ich habe in meinem Forum den Short URL - Mod eingebaut. Er funktioniert soweit einwandfrei. Nur habe ich festgestellt, dass Google teilweise die "alten" Adressen spidert. So ist z.B. die Seite

/ftopic63.html

auch mit der ursprünglichen Adresse

/viewtopic.php?p=132

im Google-Index. Mir ist dabei nicht ganz klar, wie Google an die ursprünglichen Adressen kommt!

Was kann ich dagegen tun?

Meine Robots.txt sieht wie folgt aus:

Code: Alles auswählen

# robots.txt zu http://www.macforum.ch/

User-agent: *

Disallow: /login.php
Disallow: /admin/
Disallow: /db/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /templates/
Disallow: /rdf/
Disallow: /config.php
Disallow: /profile.php
Disallow: /groupcp.php
Disallow: /memberlist.php
Disallow: /modcp.php
Disallow: /posting.php
Disallow: /privmsg.php
Disallow: /viewonline.php
Disallow: /faq.php
Disallow: /forenregeln.php
Disallow: /impressum.php
Disallow: /ptopic*.html$
Disallow: /ntopic*.html$
Disallow: /ftopic*asc*.html$

Verfasst: 03.05.2005 22:32
von rabbit
über die site:blahblah suche werden auch die seiten angezeigt, die über eine stichwortsuche nicht angezeigt werden, daher kann es sein, dass du dort auch die alten URIs findest.

Verfasst: 04.05.2005 07:01
von larsneo

Verfasst: 04.05.2005 18:23
von yellowFox
Wahrscheinlich eine ganz blöde Frage, aber könnte man nicht einfach mit

User-agent: *
Disallow: /viewtopic
Disallow: /viewforum

mein Problem lösen?

@larsneo

Ist der reloaded Short-URL-Mod nun definitiv praxistauglich, so dass auch ich als Laie ihn ohne Probleme verwenden kann?

Danke für die Hilfe

Gruss

Verfasst: 05.05.2005 18:24
von yellowFox
Mal sehen, der Eintrag

User-agent: Googlebot
Disallow: /*?

scheint zu funktionieren. Googlebot hat jedenfalls letzte Nacht nur Seiten mit der Endung .html gespidert. Hoffentlich bleibt es dabei.

Danke für den Tipp.