Seite 52 von 131

Verfasst: 01.09.2004 02:47
von Jürgen H.
Hallo,

hab eben versucht bei Google via robots.txt-Anweisung ein paar Seiten aus dem Cache löschen zu lassen.

Dabei kommt diese Fehlermeldung:

Code: Alles auswählen

Ihre URL oder Google Groups-Mitteilungen löschen 
 

URLs dürfen keine Platzhalter enthalten (z.B. „*“). Die folgende Zeile enthält einen Platzhalter:
DISALLOW /ptopic*.html$  

Löschen Sie Seiten oder Unterverzeichnisse mithilfe einer robots.txt-Datei. 
Keine Ahnung, warum das so ist. Wäre diese Anweisung dann nicht überflüssig?

Grüsse,
Jürgen

Verfasst: 01.09.2004 08:09
von larsneo
hab eben versucht bei Google via robots.txt-Anweisung ein paar Seiten aus dem Cache löschen zu lassen.
hääh? die robots.txt liegt doch einfach im root deiner präsenz und wird von bots vor des seitenscans automatisch ausgelesen (so zumindestens die theorie) - wie meldest du eine robotos.txt an google?


@Pseiko: kontrolliere noch einmal die syntax der .htaccess mit dem ersten posting - die dortigen [L] flags sollten eigentlich abhilfe schaffen

Verfasst: 01.09.2004 08:58
von Thies
larsneo hat geschrieben:1) du kannst die .htaccess in das verzeichnis packen wo die config.php liegt oder in jedes *übergeordnete* verzeichnis
Danke, dann kann ich das erstmal mit einer Kopie des Boards testen, ob das auf meinem Server geht, ohne dass ich dadurch den laufenden Betrieb störe
larsneo hat geschrieben:2) ja - ich würde allerdings vor allem aus sicherheitsaspekten dringend davor abraten die session transparent in der url zu transportieren - viele leute benutzen z.b. einfach copy-and-paste um urls zu posten und geben damit dann ihre session bekannt (von den diversen zwischenspeicherungen auf dem weg der seite vom server zum client einmal ganz zu schweigen).
Ich weiss, die Session-Klasse stammt nicht von mir und diese Fallback-Variante übergeibt einmal die Session-ID. Danach sind alle Links etc. wieder Session-ID-"frei", da diese Daten "unsichtbar" übertragen werden. Die ID erscheint also nur ein einziges Mal, ich muss mal schauen, ob ich das irgendwie ändern kann, ich habe den ABlauf der Klasse "nur noch nicht richtig durchschaut" :)

Danke für Deine Hilfe

Frank-Andre

Verfasst: 01.09.2004 10:27
von Pseiko
@ larsneo

danke, jetzt geht´s

Kann ich das RewriteOptions MaxRedirects=999 wieder rausnehmen?

Verfasst: 01.09.2004 10:56
von FatFreddy
@pseiko

Du kannst! Sorry, an die Flags habe ich nicht gedacht.

CU

Frank

Verfasst: 01.09.2004 12:44
von Jürgen H.
>> wie meldest du eine robotos.txt an google?

Um den Inhalt einer Seite aus Googles Cache löschen zu lassen kann man das machen. Man definiert in der robots.txt per disallow den Ordner, und der googlebot, der der Aufforderung lt. Google innerhalb 24 Stunden nachkommt, löscht dann die Seite aus seinem Cache.

Beim Check der robots.txt hat der bot dann eben die Fehlermeldung ausgespuckt.

[edit]: Hat die entsprechende Seite auch brav nach 18 Stunden rausgelöscht.

Meine Überlegung war: wenn man dem bot die Lage der robots.txt meldet, die zum Entfernen von einzelnen Seiten aus Googles Cache NICHT im Stammverzeichnis liegen muss, und der bot bei diesem Vorgang die disallow-Einträge zum Mod_rewrite-Mod nicht akzeptiert, weil er die Platzhalter nicht lesen kann oder will - kann man doch davon ausgehen, dass googlebot sich auch bei normalen Durchgängen nicht um diese Einträge, die Platzhalter aufweisen, schert. Oder lieg ich da falsch? Dann bitte ich um eine Richtigstellung :oops:

Zum Nachlesen: Es geht um diese drei Einträge in der robots.txt

Code: Alles auswählen

Disallow: /PFAD_ZUM_FORUM/ptopic*.html$ 
Disallow: /PFAD_ZUM_FORUM/ntopic*.html$ 
Disallow: /PFAD_ZUM_FORUM/ftopic*asc*.html$
Seiten entfernen (nach Anmeldung) aus Googles Cache, dort das System zum automatischen URL-Entfernen: >>

Grüsse,
Jürgen

Verfasst: 01.09.2004 13:58
von pixkart
so, jetzt habe ich das installiert und funktioniert auch so weit, nun
habe ich aber ein anderes, schweres problem. und zwar komme ich
nun nicht mehr in den admin ALS admin.

nach dem login, was NUR NOCH per "bei jedem besuch automatisch
einloggen" möglich ist, werde ich beim aufruf des admins immer
auf den forenindex umgeleitet....

was ist los?

Verfasst: 01.09.2004 16:25
von pixkart
*bitte hüüülfeee* :oops:

Re: Short URLs für phpBB2

Verfasst: 03.09.2004 16:45
von bruckschloegl
Hallo,

ich habe mit einem editor die htaccess erstellt und in den ordner forum, wo auch die config.php drin ist, eingefügt.

Wenn ich jetzt mein Forum starten will kommt folgender Fehler:

Forbidden
You don't have permission to access /forum/ on this server.


--------------------------------------------------------------------------------

Apache/1.3.19 Server at www.rucksack-center.de Port 80

Was habe ich falsch gemacht?

Mit freundlichen Grüßen,

Andreas

Verfasst: 03.09.2004 17:17
von larsneo
wenn dein forum in einem unterordner installiert ist, muss die syntax der .htaccess entsprechend angepasst werden:

Code: Alles auswählen

[...]
RewriteCond %{REQUEST_FILENAME} /forum/forums.html
RewriteRule (.*) /forum/index.php [L] 
[...]