Seite 36 von 131

Re: kurze Frage

Verfasst: 25.05.2004 20:07
von Wuppi
Wuppi hat geschrieben:
m0bby hat geschrieben: Ein Frage: Warum wird den Suchmaschinen das Blättern in Beiträgen durch diese 'robots.txt' Zeile

Code: Alles auswählen

Disallow: /phpBB2/ftopic*asc*.html$
verboten?
Würde so nicht immer nur die erste Seite durchsucht?

Schönen Gruß
mObbY
Die Frage möcht ich mal wieder aufwärmen ;) $ steht ja auch bei ptopic und ntopic am ende ... ptopic und ntopic auszuschließen versteh ich ja - aber die ASC-Seiten doch nicht?! Oder haben wir hier was falsch verstanden?

Verfasst: 27.05.2004 12:03
von Eistee
Hallo,

hat schon jemand eine Lösung für den "ungelesende Themen" Bug gefunden? Der tritt bei uns auf www.mediengestalter.info auch auf, ich konnte aber nicht rekonstruieren unter welchen Voraussetzungen.

Wir haben vor ca. 1 Monat die Domain gewechselt (Weiterleitung per 301 Redirect) und die hier genannten Modifikationen eingebaut, haben aber immer noch PR 0 und nur +/- 300 Seiten bei Google drin. Hat jemand Erfahrungswerte, wie lange das dauern kann? Oder haben wir irgendwas falsch gemacht?

Verfasst: 27.05.2004 23:30
von Wuppi
Hi

noch einer mit dem Bug ... das Teil wurde auf Seite 33 schon erwähnt ... glaub aber irgendwie untergegangen - jedenfalls keinerlei reaktion darauf ... hab daher nen seperaten Thread dafür aufgemacht: http://www.phpbb.de/viewtopic.php?t=55487

Bis denne
Wuppi

Verfasst: 28.05.2004 01:20
von Blackangel
Danke für die gute Arbeit!
Nach anfänglichen Problemen habe ich es dann doch hinbekommen. :D

Mit der .htaccess hatte ich so meine Probleme.
Habe es zuerst mit der Vorlage von larsneo versucht.
Die funktionierte bei mir allerdings nicht.
Dann habe ich das Beispiel von Jason ausprobiert,
und damit klappt alles wunderbar.

Verfasst: 28.05.2004 10:14
von hemfrie
@ larsneo und alle die diesen Mod bei sich installiert haben.

ich hab jetzt mal an Hand vom www.nuforum.de bei Google geprüft was alles gespidert wird.

Also wenn man bei Google mit site:www.nuforum.de sucht erhält man ca. 14.400 Einträge. Das Problem ist nur, dass überhaupt keine Linktexte oder Beschreibungen vorhanden sind.

Die Ergebnisse sehen also alle wie folgt aus.

Normalerweise sehen PHPBB Beiträge, die von Goolge gespidert werden in etwa so aus
NUFORUM :: Thema anzeigen - hier steht der Titel des Beitrags...
Autor, Nachricht. new user neuer user Anmeldungsdatum: 31.12.2003
Beiträge: 34. BeitragVerfasst am: 09.02.2004, 12:24, ...
www.nuforum.de/nuforum/ftopic105.html - 13k - Im Cache - Ähnliche Seiten
Wenn die Suchergebnisse also überhaupt keine Keywords enthalten, dann wird das Forum wohl auch nur schwer zu finden sein.

Meine Frage:

Sieht das mit den Suchergebnissen nur beim nuforum so aus, oder habt Ihr (alle die diesen MOD benutzen) das gleiche Problem??

:)
hemfrie

Verfasst: 28.05.2004 10:29
von Eistee
Also bei einer Abfrage mit site und einem Keyword, was überall vorkommt, habe ich zwar ne Description, aber nur +/- 300 Seiten drin:
mediengestalter.info - Plattform für Mediengestalter - Schauraum ...
Willkommen bei mediengestalter.info, Zur Registrierung. ... Autor, Nachricht.
Thema: Schauraum der Buchgrafiken - Kommentare willkommen. ...
www.mediengestalter.info/ftopic14826.html - 48k - Im Cache - Ähnliche Seiten

Verfasst: 28.05.2004 10:33
von itst
Das kommt daher, das in der robots.txt einige Dateien ausgeschlossen werden. Diese erscheinen dann zwar im Suchergebnis, aber eben nur als URL.

Verfasst: 28.05.2004 10:39
von hemfrie
@Eistee
Damit kann man ja leben. Ich hatte ohne Keywords gesucht, da bei meinem Forum auch ohne zusätzliches Keyword der Beitragstitel noch angezeigt wird.

Da aber die User sowieso immer irgendwelche Keywords in die Suchmaschine eintragen und nicht nach site:www.site.de :) suchen, werden sie ja dann doch fündig.

@itst
danke für die Erklärung. Das klingt plausibel.

:)
hemfrie

Verfasst: 28.05.2004 10:42
von Eistee
@itst

Ja, genau, da war ja was. Ich habe meine Links direkt auf Posts ausgeschlossen, damit es nicht mit den Links auf Themen als dublicate content gewertet wird. Oder ist das egal?

Mein Problem ist eher die geringe Anzahl der gespiderten Seiten und der PR0 nach de Domainwechsel... :(

Verfasst: 28.05.2004 11:01
von hemfrie
Die Lösung mit der Robots.txt finde ich persönlich nicht so gut.

Ich würde für die User die normalen dynamischen Links beibehalten.

Lediglich die Suchmaschinen würde ich über $_SERVER['HTTP_USER_AGENT'] und einer aktuellen Spiderliste rausfiltern und eine vermeindlich statische Seite anbieten.

Da somit die Suchmaschinen gar nicht erst die Chance erhalten auf eine der PHP-Seiten zu kommen, brauch man auch in der Robots.txt nichts mehr ausschließen.

:)
hemfrie