trotz robots.txt im index! doppelter content
Verfasst: 14.07.2005 21:18
guten abend allerseits,habe trotz untenstehender robots .txt (auszug)viele dieser dateien im googleindex
http://www.google.de/search?q=site:axel ... rt=20&sa=N
wie kommt denn das und wie behebe ich dieses problem?
sehe da ein grösseres problem namens "duplicate content" auf mich zukommen
vielen dank schonmal..
gruss axel
http://www.google.de/search?q=site:axel ... rt=20&sa=N
wie kommt denn das und wie behebe ich dieses problem?
sehe da ein grösseres problem namens "duplicate content" auf mich zukommen
vielen dank schonmal..
gruss axel
Disallow: /foto-forum/config.php
Disallow: /foto-forum/profile
Disallow: /foto-forum/groupcp.php
Disallow: /foto-forum/memberlist.php
Disallow: /foto-forum/modcp.php
Disallow: /foto-forum/posting.php
Disallow: /foto-forum/privmsg.php
Disallow: /foto-forum/viewonline.php
Disallow: /foto-forum/faq.php
Disallow: /foto-forum/ptopic*.html$
Disallow: /foto-forum/ntopic*.html$
Disallow: /foto-forum/ftopic*asc*.html$