SEO Urls V2

In diesem Forum können Mod-Autoren ihre Mods vorstellen, die sich noch im Entwicklungsstatus befinden. Der Einbau in Foren im produktiven Betrieb wird nicht empfohlen.
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Kortirion
Mitglied
Beiträge: 485
Registriert: 03.05.2004 05:07
Wohnort: Kassel
Kontaktdaten:

Beitrag von Kortirion »

Hallo,

liegt Dein Forum im root der Domain oder in einem Unterverzeichnis?

Ich vermute, dass letzteres der Fall ist, wenn die indexseite korrekt angezeigt wird, Foren aber nicht.

Die htacess aus dem ersten Posting ist auf Foren angepasst, die direkt im root liegen:

Code: Alles auswählen

# SEO URL [mgutt] 
RewriteRule !\.html$ - [L] 
RewriteRule ^[a-z0-9-]+-([pt])([0-9]+)\.html$ /viewtopic.php?$1=$2 [L] 
RewriteRule ^[a-z0-9-]+-f([0-9]+)\.html$ /viewforum.php?f=$1 [L] 
RewriteRule ^[a-z0-9-]+-u([0-9]+)\.html$ /profile.php?mode=viewprofile&u=$1 [L] 
RewriteRule ^([a-zA-Z0-9_]+),([^/,]+),([^/,]*)([^/]*\.html)$ $1$4?$2=$3 [QSA,N] 
RewriteRule ^[a-z0-9-]+-([pt])([0-9]+),([^/,]+),([^/,]*)([^/]*\.html)$ viewtopic$5?$1=$2&$3=$4 [QSA,N] 
RewriteRule ^[a-z0-9-]+-f([0-9]+),([^/,]+),([^/,]*)([^/]*\.html)$ viewforum$4?f=$1&$2=$3 [QSA,N] 
RewriteRule ^([a-zA-Z0-9_]+)\.html$ /$1.php [L]
Wenn bei Dir das Board z.B. über www.deinedomain.tld/forum/ zu erreichen ist, musst Du die Pfade in der .htaccess wie folgt anpassen:

z.B.: RewriteRule ^[a-z0-9-]+-f([0-9]+)\.html$ /forum/viewforum.php?f=$1 [L]

(Das dann natrülich für jede Rewriterule mit Pfadangabe) ;)
...mehr über mich: www.kortirion.de oder www.schwarzer-humbug.de ...oder auch nicht...egal.
Neuestes Projekt: www.das-buchforum.de
Benutzeravatar
BananaJoe
Mitglied
Beiträge: 127
Registriert: 18.03.2006 19:01

Beitrag von BananaJoe »

Ich hab die 1.0.7 jetzt übernommen aber komischerweise zeigt mir Firefox wieder session-ids nach dem Login an. Der IE machts nicht.
Aber da Suchmaschinen sowieso nur Gäste sind, spielt das ja wahrscheinlich keine Rolle.


Hat sich erledigt, Firefox hatte meine Cookies gesperrt.

Aber eine Frage bleibt:
Könnte mein Portal irgendwie noch Double Content erzeugen?
Soll ich das vielleicht in der robots.txt aussperren? Wenn ja, wie geht das?
Benutzeravatar
mgutt
Mitglied
Beiträge: 2999
Registriert: 31.08.2004 16:44
Wohnort: Hennef
Kontaktdaten:

Beitrag von mgutt »

Die robots.txt hat ein Update erfahren:
www.evop.de/robots.txt

die Zeilen sind hinzu gekommen:

Code: Alles auswählen

Disallow: /viewforum,
Disallow: /viewtopic,
meine Foren: http://www.maxrev.de/communities.htm
Ich kaufe Dein Forum! Angebote bitte an marc at gutt punkt it
Kortirion
Mitglied
Beiträge: 485
Registriert: 03.05.2004 05:07
Wohnort: Kassel
Kontaktdaten:

Beitrag von Kortirion »

...da komme ich jetzt systematisch nicht nach...warum die posting.htm und die privmsg.htm gesperrt werden, ist mir ja klar. Aber warum sollen die spider viewforum und viewtopic nicht mehr in den Index aufnehmen?

Worüber kommen die denn dann überhaupt noch an den content?
...mehr über mich: www.kortirion.de oder www.schwarzer-humbug.de ...oder auch nicht...egal.
Neuestes Projekt: www.das-buchforum.de
Benutzeravatar
mgutt
Mitglied
Beiträge: 2999
Registriert: 31.08.2004 16:44
Wohnort: Hennef
Kontaktdaten:

Beitrag von mgutt »

viewtopic seiten fangen mit dem titel an ;)

wenn der titel fehlt, dann wäre es viewtopic,t,23423.htm und das wäre doppelt.

gruß
meine Foren: http://www.maxrev.de/communities.htm
Ich kaufe Dein Forum! Angebote bitte an marc at gutt punkt it
Kortirion
Mitglied
Beiträge: 485
Registriert: 03.05.2004 05:07
Wohnort: Kassel
Kontaktdaten:

Beitrag von Kortirion »

Ui...ja klar...danke...;)
...mehr über mich: www.kortirion.de oder www.schwarzer-humbug.de ...oder auch nicht...egal.
Neuestes Projekt: www.das-buchforum.de
Benutzeravatar
Stemmi
Mitglied
Beiträge: 258
Registriert: 06.07.2001 02:00
Kontaktdaten:

Beitrag von Stemmi »

So hab jetzt die neuer Version vom ersten Topic drin.

Kann es eigentlich zu Problemen kommen, wenn ich in der robot.txt Einträge doppelt drin habe?
Hab ja noch die Anweisungen von larsneo drin:

www.cineforen.de/robots.txt
Demnächst im Kino
"Brüder, in der Ewigkeit wird man sich eurer Taten erinnern! "
Benutzeravatar
mgutt
Mitglied
Beiträge: 2999
Registriert: 31.08.2004 16:44
Wohnort: Hennef
Kontaktdaten:

Beitrag von mgutt »

ja die müssen raus.

und diese einträge würde ich komplett löschen:

Code: Alles auswählen

User-agent: msnbot 
Crawl-Delay: 10 

User-agent: Slurp 
Crawl-Delay: 10 

User-agent: Googlebot 
Disallow: /*? 
mit dem "*?" haben larsneo und ich uns nie einigen können.

Google sagt zwar:
Googlebot unterstützt z. B. eine erweiterte Definition des Standards. Es erkennt sowohl Allow:-Zeilen als auch *- und $-Zeilen.
und:
Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:

User-agent: Googlebot
Disallow: /*?
Doch wenn man die robots.txt mit der Google Url-Console hoch jagt, dann wird sie mit einer Fehlermeldung quittiert. Weiterhin habe ich sie versucht auf anderen Seiten prüfen zu lassen und immer wird mir eine Fehlermeldung, wegen der Verwendung des "Sterns"

Ich gehe direkt nach Googlevorbild:
www.google.de/robots.txt

Hier sind keine Sterne zu finden.

Übrigens heißt Google statische Kopien willkommen:
Ziehen Sie das Erstellen statischer Kopien von dynamischen Seiten in Erwägung. Obwohl der Google-Index dynamische Seiten beinhaltet, machen diese nur einen kleinen Teil unseres Indexes aus. Wenn Sie vermuten, dass Ihre dynamisch erstellten Seiten (wie URLs, die Fragezeichen enthalten) unseren Suchrobotern Probleme bereiten, können Sie statische Kopien dieser Seiten erstellen. Vergessen Sie dabei nicht, die dynamischen Seiten zu Ihrer robots.txt-Datei hinzuzufügen, um zu vermeiden, dass wir diese als Duplikate behandeln.
Sagt aber eindeutig, dass die Originale per robots.txt ausgeschlossen werden sollen. (demnach begeht phpbb.de z.B. einen Regelverstoß ;) )
meine Foren: http://www.maxrev.de/communities.htm
Ich kaufe Dein Forum! Angebote bitte an marc at gutt punkt it
Benutzeravatar
Stemmi
Mitglied
Beiträge: 258
Registriert: 06.07.2001 02:00
Kontaktdaten:

Beitrag von Stemmi »

Ok habs geändert. Danke!!!
Demnächst im Kino
"Brüder, in der Ewigkeit wird man sich eurer Taten erinnern! "
Benutzeravatar
BananaJoe
Mitglied
Beiträge: 127
Registriert: 18.03.2006 19:01

Beitrag von BananaJoe »

BananaJoe hat geschrieben: Aber eine Frage bleibt:
Könnte mein Portal irgendwie noch Double Content erzeugen?
Soll ich das vielleicht in der robots.txt aussperren? Wenn ja, wie geht das?
Antworten

Zurück zu „phpBB 2.0: Mods in Entwicklung“