Seite 1 von 1

trotz robots.txt im index! doppelter content

Verfasst: 14.07.2005 21:18
von axellauer
guten abend allerseits,habe trotz untenstehender robots .txt (auszug)viele dieser dateien im googleindex
http://www.google.de/search?q=site:axel ... rt=20&sa=N

wie kommt denn das und wie behebe ich dieses problem?
sehe da ein grösseres problem namens "duplicate content" auf mich zukommen
vielen dank schonmal..
gruss axel


Disallow: /foto-forum/config.php
Disallow: /foto-forum/profile
Disallow: /foto-forum/groupcp.php
Disallow: /foto-forum/memberlist.php
Disallow: /foto-forum/modcp.php
Disallow: /foto-forum/posting.php
Disallow: /foto-forum/privmsg.php
Disallow: /foto-forum/viewonline.php
Disallow: /foto-forum/faq.php
Disallow: /foto-forum/ptopic*.html$
Disallow: /foto-forum/ntopic*.html$
Disallow: /foto-forum/ftopic*asc*.html$

Verfasst: 19.07.2005 22:29
von FUXS
stelle mal bitte die gesamte ROBOTS.TXT hier rein. das interessante steht weiter oben was fehlt.

Verfasst: 19.07.2005 23:32
von axellauer
hallo FUXS,
hab heut mal dran rumgeschrieben und ne variante gefunden die funktionieren müsste.
http://www.axellauer.de/robots.txt

gruss axel

Verfasst: 20.07.2005 00:03
von tas2580
Vergiss die robots.txt, am sichersten fährst du wenn du alle Links so umschreibst das sie gleich sind oder alle Links die DC verursachen für Gäste ausblendest.

Verfasst: 20.07.2005 00:11
von axellauer
[BTK] Tobi hat geschrieben:Vergiss die robots.txt, am sichersten fährst du wenn du alle Links so umschreibst das sie gleich sind oder alle Links die DC verursachen für Gäste ausblendest.
aaaaaaaahhhhh ja!!???

verrätst du mir auch wie? :grin:
daufreundlich wenn möglich.
gruss axel