Wuppi hat geschrieben:Die Frage möcht ich mal wieder aufwärmenm0bby hat geschrieben: Ein Frage: Warum wird den Suchmaschinen das Blättern in Beiträgen durch diese 'robots.txt' Zeileverboten?Code: Alles auswählen
Disallow: /phpBB2/ftopic*asc*.html$
Würde so nicht immer nur die erste Seite durchsucht?
Schönen Gruß
mObbY$ steht ja auch bei ptopic und ntopic am ende ... ptopic und ntopic auszuschließen versteh ich ja - aber die ASC-Seiten doch nicht?! Oder haben wir hier was falsch verstanden?
Short URLs für phpBB2
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Re: kurze Frage
Hallo,
hat schon jemand eine Lösung für den "ungelesende Themen" Bug gefunden? Der tritt bei uns auf www.mediengestalter.info auch auf, ich konnte aber nicht rekonstruieren unter welchen Voraussetzungen.
Wir haben vor ca. 1 Monat die Domain gewechselt (Weiterleitung per 301 Redirect) und die hier genannten Modifikationen eingebaut, haben aber immer noch PR 0 und nur +/- 300 Seiten bei Google drin. Hat jemand Erfahrungswerte, wie lange das dauern kann? Oder haben wir irgendwas falsch gemacht?
hat schon jemand eine Lösung für den "ungelesende Themen" Bug gefunden? Der tritt bei uns auf www.mediengestalter.info auch auf, ich konnte aber nicht rekonstruieren unter welchen Voraussetzungen.
Wir haben vor ca. 1 Monat die Domain gewechselt (Weiterleitung per 301 Redirect) und die hier genannten Modifikationen eingebaut, haben aber immer noch PR 0 und nur +/- 300 Seiten bei Google drin. Hat jemand Erfahrungswerte, wie lange das dauern kann? Oder haben wir irgendwas falsch gemacht?
Hi
noch einer mit dem Bug ... das Teil wurde auf Seite 33 schon erwähnt ... glaub aber irgendwie untergegangen - jedenfalls keinerlei reaktion darauf ... hab daher nen seperaten Thread dafür aufgemacht: http://www.phpbb.de/viewtopic.php?t=55487
Bis denne
Wuppi
noch einer mit dem Bug ... das Teil wurde auf Seite 33 schon erwähnt ... glaub aber irgendwie untergegangen - jedenfalls keinerlei reaktion darauf ... hab daher nen seperaten Thread dafür aufgemacht: http://www.phpbb.de/viewtopic.php?t=55487
Bis denne
Wuppi
-
- Mitglied
- Beiträge: 112
- Registriert: 11.02.2004 07:11
Danke für die gute Arbeit!
Nach anfänglichen Problemen habe ich es dann doch hinbekommen.
Mit der .htaccess hatte ich so meine Probleme.
Habe es zuerst mit der Vorlage von larsneo versucht.
Die funktionierte bei mir allerdings nicht.
Dann habe ich das Beispiel von Jason ausprobiert,
und damit klappt alles wunderbar.
Nach anfänglichen Problemen habe ich es dann doch hinbekommen.

Mit der .htaccess hatte ich so meine Probleme.
Habe es zuerst mit der Vorlage von larsneo versucht.
Die funktionierte bei mir allerdings nicht.
Dann habe ich das Beispiel von Jason ausprobiert,
und damit klappt alles wunderbar.
@ larsneo und alle die diesen Mod bei sich installiert haben.
ich hab jetzt mal an Hand vom www.nuforum.de bei Google geprüft was alles gespidert wird.
Also wenn man bei Google mit site:www.nuforum.de sucht erhält man ca. 14.400 Einträge. Das Problem ist nur, dass überhaupt keine Linktexte oder Beschreibungen vorhanden sind.
Die Ergebnisse sehen also alle wie folgt aus.
Normalerweise sehen PHPBB Beiträge, die von Goolge gespidert werden in etwa so aus
Meine Frage:
Sieht das mit den Suchergebnissen nur beim nuforum so aus, oder habt Ihr (alle die diesen MOD benutzen) das gleiche Problem??

hemfrie
ich hab jetzt mal an Hand vom www.nuforum.de bei Google geprüft was alles gespidert wird.
Also wenn man bei Google mit site:www.nuforum.de sucht erhält man ca. 14.400 Einträge. Das Problem ist nur, dass überhaupt keine Linktexte oder Beschreibungen vorhanden sind.
Die Ergebnisse sehen also alle wie folgt aus.
www.nuforum.de/nuforum/ftopic5199-0-asc-20.html
Ähnliche Seiten
www.nuforum.de/nuforum/ftopic105.html
Ähnliche Seiten
Normalerweise sehen PHPBB Beiträge, die von Goolge gespidert werden in etwa so aus
Wenn die Suchergebnisse also überhaupt keine Keywords enthalten, dann wird das Forum wohl auch nur schwer zu finden sein.NUFORUM :: Thema anzeigen - hier steht der Titel des Beitrags...
Autor, Nachricht. new user neuer user Anmeldungsdatum: 31.12.2003
Beiträge: 34. BeitragVerfasst am: 09.02.2004, 12:24, ...
www.nuforum.de/nuforum/ftopic105.html - 13k - Im Cache - Ähnliche Seiten
Meine Frage:
Sieht das mit den Suchergebnissen nur beim nuforum so aus, oder habt Ihr (alle die diesen MOD benutzen) das gleiche Problem??

hemfrie
Also bei einer Abfrage mit site und einem Keyword, was überall vorkommt, habe ich zwar ne Description, aber nur +/- 300 Seiten drin:
mediengestalter.info - Plattform für Mediengestalter - Schauraum ...
Willkommen bei mediengestalter.info, Zur Registrierung. ... Autor, Nachricht.
Thema: Schauraum der Buchgrafiken - Kommentare willkommen. ...
www.mediengestalter.info/ftopic14826.html - 48k - Im Cache - Ähnliche Seiten
@Eistee
Damit kann man ja leben. Ich hatte ohne Keywords gesucht, da bei meinem Forum auch ohne zusätzliches Keyword der Beitragstitel noch angezeigt wird.
Da aber die User sowieso immer irgendwelche Keywords in die Suchmaschine eintragen und nicht nach site:www.site.de
suchen, werden sie ja dann doch fündig.
@itst
danke für die Erklärung. Das klingt plausibel.

hemfrie
Damit kann man ja leben. Ich hatte ohne Keywords gesucht, da bei meinem Forum auch ohne zusätzliches Keyword der Beitragstitel noch angezeigt wird.
Da aber die User sowieso immer irgendwelche Keywords in die Suchmaschine eintragen und nicht nach site:www.site.de

@itst
danke für die Erklärung. Das klingt plausibel.

hemfrie
Die Lösung mit der Robots.txt finde ich persönlich nicht so gut.
Ich würde für die User die normalen dynamischen Links beibehalten.
Lediglich die Suchmaschinen würde ich über $_SERVER['HTTP_USER_AGENT'] und einer aktuellen Spiderliste rausfiltern und eine vermeindlich statische Seite anbieten.
Da somit die Suchmaschinen gar nicht erst die Chance erhalten auf eine der PHP-Seiten zu kommen, brauch man auch in der Robots.txt nichts mehr ausschließen.

hemfrie
Ich würde für die User die normalen dynamischen Links beibehalten.
Lediglich die Suchmaschinen würde ich über $_SERVER['HTTP_USER_AGENT'] und einer aktuellen Spiderliste rausfiltern und eine vermeindlich statische Seite anbieten.
Da somit die Suchmaschinen gar nicht erst die Chance erhalten auf eine der PHP-Seiten zu kommen, brauch man auch in der Robots.txt nichts mehr ausschließen.

hemfrie