Seite 22 von 175
Verfasst: 12.04.2006 13:25
von Kortirion
Hallo,
liegt Dein Forum im root der Domain oder in einem Unterverzeichnis?
Ich vermute, dass letzteres der Fall ist, wenn die indexseite korrekt angezeigt wird, Foren aber nicht.
Die htacess aus dem ersten Posting ist auf Foren angepasst, die direkt im root liegen:
Code: Alles auswählen
# SEO URL [mgutt]
RewriteRule !\.html$ - [L]
RewriteRule ^[a-z0-9-]+-([pt])([0-9]+)\.html$ /viewtopic.php?$1=$2 [L]
RewriteRule ^[a-z0-9-]+-f([0-9]+)\.html$ /viewforum.php?f=$1 [L]
RewriteRule ^[a-z0-9-]+-u([0-9]+)\.html$ /profile.php?mode=viewprofile&u=$1 [L]
RewriteRule ^([a-zA-Z0-9_]+),([^/,]+),([^/,]*)([^/]*\.html)$ $1$4?$2=$3 [QSA,N]
RewriteRule ^[a-z0-9-]+-([pt])([0-9]+),([^/,]+),([^/,]*)([^/]*\.html)$ viewtopic$5?$1=$2&$3=$4 [QSA,N]
RewriteRule ^[a-z0-9-]+-f([0-9]+),([^/,]+),([^/,]*)([^/]*\.html)$ viewforum$4?f=$1&$2=$3 [QSA,N]
RewriteRule ^([a-zA-Z0-9_]+)\.html$ /$1.php [L]
Wenn bei Dir das Board z.B. über
www.deinedomain.tld/forum/ zu erreichen ist, musst Du die Pfade in der .htaccess wie folgt anpassen:
z.B.: RewriteRule ^[a-z0-9-]+-f([0-9]+)\.html$
/forum/viewforum.php?f=$1 [L]
(Das dann natrülich für jede Rewriterule mit Pfadangabe)

Verfasst: 12.04.2006 16:26
von BananaJoe
Ich hab die 1.0.7 jetzt übernommen aber komischerweise zeigt mir Firefox wieder session-ids nach dem Login an. Der IE machts nicht.
Aber da Suchmaschinen sowieso nur Gäste sind, spielt das ja wahrscheinlich keine Rolle.
Hat sich erledigt, Firefox hatte meine Cookies gesperrt.
Aber eine Frage bleibt:
Könnte mein Portal irgendwie noch Double Content erzeugen?
Soll ich das vielleicht in der robots.txt aussperren? Wenn ja, wie geht das?
Verfasst: 12.04.2006 22:59
von mgutt
Die robots.txt hat ein Update erfahren:
www.evop.de/robots.txt
die Zeilen sind hinzu gekommen:
Verfasst: 12.04.2006 23:33
von Kortirion
...da komme ich jetzt systematisch nicht nach...warum die posting.htm und die privmsg.htm gesperrt werden, ist mir ja klar. Aber warum sollen die spider viewforum und viewtopic nicht mehr in den Index aufnehmen?
Worüber kommen die denn dann überhaupt noch an den content?
Verfasst: 12.04.2006 23:36
von mgutt
viewtopic seiten fangen mit dem titel an
wenn der titel fehlt, dann wäre es viewtopic,t,23423.htm und das wäre doppelt.
gruß
Verfasst: 12.04.2006 23:37
von Kortirion
Ui...ja klar...danke...

Verfasst: 13.04.2006 08:52
von Stemmi
So hab jetzt die neuer Version vom ersten Topic drin.
Kann es eigentlich zu Problemen kommen, wenn ich in der robot.txt Einträge doppelt drin habe?
Hab ja noch die Anweisungen von larsneo drin:
www.cineforen.de/robots.txt
Verfasst: 13.04.2006 11:07
von mgutt
ja die müssen raus.
und diese einträge würde ich komplett löschen:
Code: Alles auswählen
User-agent: msnbot
Crawl-Delay: 10
User-agent: Slurp
Crawl-Delay: 10
User-agent: Googlebot
Disallow: /*?
mit dem "*?" haben larsneo und ich uns nie einigen können.
Google sagt zwar:
Googlebot unterstützt z. B. eine erweiterte Definition des Standards. Es erkennt sowohl Allow:-Zeilen als auch *- und $-Zeilen.
und:
Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:
User-agent: Googlebot
Disallow: /*?
Doch wenn man die robots.txt mit der Google Url-Console hoch jagt, dann wird sie mit einer Fehlermeldung quittiert. Weiterhin habe ich sie versucht auf anderen Seiten prüfen zu lassen und immer wird mir eine Fehlermeldung, wegen der Verwendung des "Sterns"
Ich gehe direkt nach Googlevorbild:
www.google.de/robots.txt
Hier sind keine Sterne zu finden.
Übrigens heißt Google statische Kopien willkommen:
Ziehen Sie das Erstellen statischer Kopien von dynamischen Seiten in Erwägung. Obwohl der Google-Index dynamische Seiten beinhaltet, machen diese nur einen kleinen Teil unseres Indexes aus. Wenn Sie vermuten, dass Ihre dynamisch erstellten Seiten (wie URLs, die Fragezeichen enthalten) unseren Suchrobotern Probleme bereiten, können Sie statische Kopien dieser Seiten erstellen. Vergessen Sie dabei nicht, die dynamischen Seiten zu Ihrer robots.txt-Datei hinzuzufügen, um zu vermeiden, dass wir diese als Duplikate behandeln.
Sagt aber eindeutig, dass die Originale per robots.txt ausgeschlossen werden sollen. (demnach begeht phpbb.de z.B. einen Regelverstoß

)
Verfasst: 13.04.2006 11:17
von Stemmi
Ok habs geändert. Danke!!!
Verfasst: 13.04.2006 15:11
von BananaJoe
BananaJoe hat geschrieben:
Aber eine Frage bleibt:
Könnte mein Portal irgendwie noch Double Content erzeugen?
Soll ich das vielleicht in der robots.txt aussperren? Wenn ja, wie geht das?