>> wie meldest du eine robotos.txt an google?
Um den Inhalt einer Seite aus Googles Cache löschen zu lassen kann man das machen. Man definiert in der robots.txt per disallow den Ordner, und der googlebot, der der Aufforderung lt. Google innerhalb 24 Stunden nachkommt, löscht dann die Seite aus seinem Cache.
Beim Check der robots.txt hat der bot dann eben die Fehlermeldung ausgespuckt.
[edit]: Hat die entsprechende Seite auch brav nach 18 Stunden rausgelöscht.
Meine Überlegung war: wenn man dem bot die Lage der robots.txt meldet, die zum Entfernen von einzelnen Seiten aus Googles Cache NICHT im Stammverzeichnis liegen muss, und der bot bei diesem Vorgang die disallow-Einträge zum Mod_rewrite-Mod nicht akzeptiert, weil er die Platzhalter nicht lesen kann oder will - kann man doch davon ausgehen, dass googlebot sich auch bei normalen Durchgängen nicht um diese Einträge, die Platzhalter aufweisen, schert. Oder lieg ich da falsch? Dann bitte ich um eine Richtigstellung
Zum Nachlesen: Es geht um diese drei Einträge in der robots.txt
Code: Alles auswählen
Disallow: /PFAD_ZUM_FORUM/ptopic*.html$
Disallow: /PFAD_ZUM_FORUM/ntopic*.html$
Disallow: /PFAD_ZUM_FORUM/ftopic*asc*.html$
Seiten entfernen (nach Anmeldung) aus Googles Cache, dort das System zum automatischen URL-Entfernen:
>>
Grüsse,
Jürgen