Seite 1 von 5

suchmaschinenfreundlich?

Verfasst: 05.01.2005 20:39
von Andreas84
Hallo,

ich habe mein Forum schon mit Short Urls, einer Sitemap und den letzten 50 Posts Anzeige optimiert.

Nun ist mir aufgefallen, dass wenn ich bei Abakus z.B. auf das Forum "Ich hab' da mal 'ne Frage" klicke, erscheinen die Threads und ganz rechts bei "Letzter Beitrag" ist ein Link zum letzten Beitrag.

Bei Abakus sieht der Link z.B. so aus:
http://www.abakus-internet-marketing.de ... html#81995

Bei mir sieht das ganze z.B. bei diesem Forum:
http://www.rucksack-center.de/forum/forum15.html
so aus:
http://www.rucksack-center.de/forum/vie ... hp?p=86#86

Stört das den Suchmaschinen und kann ich das irgendwie machen?

Gruß,
Andreas

Verfasst: 05.01.2005 20:51
von larsneo
das wohl derzeit umfangreichste rewriting ist *hier* beschrieben - letztendlich ist allerdings sehr viel 'glauben' bei dem thema suchmaschinen-optimierung.

wenn man das rewriting schon verzeichnisweise aufbricht, dann wäre imho auch eine struktur ala forum.de/KATEGORIE/FORUM/TOPIC.html von der suchmaschinenoptimierung her das beste - allerdings würde das mächtig auf die performance drücken. ein ganz klein wenig in diese richtung geht übrigens mein derzeitiger archiv- bzw. avantgo-ansatz (nein, den kann man noch nicht als mod downloaden).

Verfasst: 05.01.2005 21:10
von Andreas84
Hallo,

aber es ist monentan nicht doppelter Kontent oder??

Verfasst: 05.01.2005 21:30
von larsneo
wenn du das rewriting nicht optimal hinbekommst sperr' doch beispielsweise via robots.txt dynamische seiten - dann sollten eigentlich nur 'statische' seiten in den index aufgenommen werden ;-)
siehe auch *klick*

Verfasst: 05.01.2005 22:12
von Andreas84
Hallo larsneo,

wie würde dann so eine robots.txt aussehen, damit ich die dynamische seiten sperren kann???

Gruß,
Andreas

Verfasst: 05.01.2005 23:40
von larsneo
frei nach SAP: wer lesen kann ist klar im vorteil:
google faq hat geschrieben:12. Wie veranlasse ich Googlebot, dynamisch erstellte Seiten auf meiner Site nicht zu durchlaufen?

Dies kann mithilfe der folgenden robots.txt-Datei erreicht werden.

User-agent: Googlebot
Disallow: /*?

Verfasst: 08.01.2005 22:17
von Wuppi
larsneo hat geschrieben:frei nach SAP: wer lesen kann ist klar im vorteil:
google faq hat geschrieben:12. Wie veranlasse ich Googlebot, dynamisch erstellte Seiten auf meiner Site nicht zu durchlaufen?

Dies kann mithilfe der folgenden robots.txt-Datei erreicht werden.

User-agent: Googlebot
Disallow: /*?
Hast du damit POSITIVE Erfahrungen? Ich hab z.b. die index.php, viewtopic.php usw. drin - google spidert die aber fröhlich vor sich hin - auch bei einem anderen Projekt wo ich die index.php überhaupt nicht im index gebrauchen kann, macht das das :( (deine Variante filtert nach ? <- geht bei meinem aktuellen Projekt zwar nicht [da hier ? in der URL sein dürfen [wiki]], aber wenns dem Forum hilft? ;) )

Gruß
Wuppi

Verfasst: 09.01.2005 11:20
von larsneo
meiner erfahrung nach spidert google zwar die durch robots.txt 'verbotenen' inhalte nimmt sie aber weder in den index noch in den cache auf (die fundstellen werden also beispielsweise bei der 'site:' suche angezeigt nicht aber bei der suche nach entsprechenden keywords)

Verfasst: 21.01.2005 17:09
von Andreas84
Hallo,

wie muss ich die dann also aussperren???

Also wie muss die robots.txt aussehen?

Code: Alles auswählen

User-agent: Googlebot 
Disallow: /*?
So?:

Code: Alles auswählen

User-agent: Googlebot 
Disallow: /viewtopic.php?
Gruß,
Andreas

Verfasst: 21.01.2005 18:08
von larsneo
mit

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*?
sollte alle dynamischen inhalte für google 'unsichtbar' sein...