

Trotzdem Danke Dir

BE
Code: Alles auswählen
User-agent: msnbot
Crawl-Delay: 10
User-agent: Slurp
Crawl-Delay: 10
User-agent: Googlebot
Disallow: /*?
User-agent: *
Disallow: /nuforum/admin/
Disallow: /nuforum/album_mod/
Disallow: /nuforum/cache/
Disallow: /nuforum/db/
Disallow: /nuforum/docs/
Disallow: /nuforum/images/
Disallow: /nuforum/includes/
Disallow: /nuforum/language/
Disallow: /nuforum/mods/
Disallow: /nuforum/templates/
Disallow: /nuforum/xs_mod/
Disallow: /nuforum/album
Disallow: /nuforum/common
Disallow: /nuforum/extension
Disallow: /nuforum/faq
Disallow: /nuforum/groupcp
Disallow: /nuforum/login
Disallow: /nuforum/map
Disallow: /nuforum/memberlist
Disallow: /nuforum/modcp
Disallow: /nuforum/posting
Disallow: /nuforum/privmsg
Disallow: /nuforum/profile
Disallow: /nuforum/rating
Disallow: /nuforum/report
Disallow: /nuforum/search
Disallow: /nuforum/fpost
Disallow: /nuforum/ptopic
Disallow: /nuforum/ntopic
Disallow: /nuforum/post-
das war dann alles.Also, ich erstell ne .htaccess, dann eine robots.txt, dann editier ich noch die " /includes/page_header.php", "/includes/page_tail.php" und blende noch die SID aus, war das dann allen, oder noch was?
es werden alle dynamischen urls (zumindestens von big-g) und alle mehr oder weniger unwichtigen/doppelten statischen links/bereiche nicht indexiert. wie kommst du darauf, dass *alle* beiträge nicht erkannt werden?[...]Erstelle, dann werden doch alle Beiträge nicht erkannt
Stimmt so net ganz... ftopic verlinkt das Thema xx, während fpostlarsneo hat geschrieben:fpostxxx.html ist double content zu ftopicxxx.html - wo ist das problem?