Short URLs für phpBB2

In diesem Forum können Mod-Autoren ihre Mods vorstellen, die sich noch im Entwicklungsstatus befinden. Der Einbau in Foren im produktiven Betrieb wird nicht empfohlen.
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
thompson
Mitglied
Beiträge: 797
Registriert: 14.11.2002 14:04
Wohnort: irgendwo im süden
Kontaktdaten:

Beitrag von thompson »

vielleicht nimmt der webbi von hier noch dazu stellung. (er hat es hier ja umgesetzt)

hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?

denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

thompson hat geschrieben: hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?

denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.

Naja .... die urls sehen net so gut aus - nen bissel optik darf man seinem Usern ja wohl gönnen ;) ... aber dort ist auch das problem imt dem viewtopic.php?p's .... dadurch spidert google ein und die selbe Seite mit 2 Namen ... (siehe meine letzten Beiträge) .... von der Theorie her sollte das net so schwer sein umzuändern (statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245) - zudem hat er diese unnötigen postdays=0&postorder=asc-Unterseiten-Links drin (sind unnötig; auf die Seite kommt man ja auch über die Links die man von der forum123.html bekommt - da kann man die Unterseiten ja auch anspringen; und order hab ich noch nie irgendwo gesehen, da dort was anderes steht) die normalen postorder-seiten bekomm ich weg - nur in verbindung mit highlights hab ich ein kleines denkproblem :( ...hier werden also auch wieder Seiten mit gleichen Inhalt mit 2 unterschiedlichen Dateinamen gespidert (einmal der dateiname den man über forumsXY.html bekommt und einmal den innerhalb der ftopic's) ... daher würde ich diese Seite auch nicht als Paradebeispiel bezeichnen ...

Bis denne
Wuppi
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

Hi

zum "postdays=0&postorder=asc"-Problem:

Suche in der page_header.php

Code: Alles auswählen

'"ftopic\\1-\\2-\\3-\\4.html"',
Ersetze:

Code: Alles auswählen

'"ftopic\\1-\\4.html"',
Statt:
ftopic5676-0-asc-0.html (viewtopic.php?t=5676&postdays=0&postorder=asc&start=0)

sehen die Links nun so aus: ftopic5676-15.html
Also nur noch das t= und start= wird genommen - der rest wird ignoriert.

Das Problem: die erste Seite, wenn man über forums123.html die Seite joind, sieht so aus: ftopic5676.html ... die Seite 2 hat dann ja den Seitenbegrenzer drin (15 z.b. => ftopic5676-15.html) ... die erste Seite innerhalb des ftopic-Bereichs sieht dann aber ftopic5676-0.html aus :/

Jemand ne Idee wie ich die erste Seite IMMER Ohne &start=0 / -0 setzen kann?? ... wie kann ich die per robots.txt aussperren? (disallow: /ftopic ... und weiter? ;) )

Bis denne
Wuppi


PS: sämtliche Modifikationen in diesem Mod die ich gemacht habe, findet ihr unter http://www.phpbb.de/topic56605.html
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

Hi

einen Ansatz für das "statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245" Problem (damit man das vernünftig rewriten kann; und nicht noch mehr doppelte Seiten im SuMa-Index drin hat) hab ich jetzt:

viewtopic.php?t=123#1245 <- sowas an Link bekomm ich jetzt hin. Nur was ich übersehen hab: wenn der Post 1245 auf der 3. Seite liegt, klappt dat nicht. In die URL muß also noch die "Seite" rein ...
viewtopic.php?t=123&start=30#1245 (für die 3. Seite; wenn man je 15 Beiträge/Seite hat)

Da brauch ich aber zuarbeit von einem Profi ;) Wie kann ich das bewerkstelligen? Ist das überhaupt möglich?

Bis denne
Wuppi
hemfrie
Mitglied
Beiträge: 11
Registriert: 25.05.2004 12:51
Wohnort: Düsseldorf
Kontaktdaten:

Beitrag von hemfrie »

@wuppi

verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.

Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

:)
hemfrie
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

hemfrie hat geschrieben:@wuppi

verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.

Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

:)
hemfrie
mhhh irgendwie haste recht ;) mist ... der Beitrag der heute einer der ersten 30 ist (also Seite 1), kann morgen schon in den Bereich 30-60 gerutscht sein - also 2. Seite. mhhhh

Das stellt das ganze natürlich vor einem Problem ;)

Man muß nen bissel mehr Technik reinbringen ;) ... also vieles umprogrammieren :( (hoffe das 2.2 voll SuMa-Freundlich ist!!) ... ne idee ... wir haben doch das #1245 - das ändert sich nicht - und ist immer gleich mit dem p= (hab noch nie p=1255#1245 gesehen!). Man muß den Server dazubringen das #1245 einzulesen ... wenn der Beitrag #1245 nicht mehr auf Seite 1 ist (also nicht mehr p=123, sondern p=123&start=60)), wird der das die URL entsprechend umschreiben - am besten dann mit einem 301-Redirekt per "permantly redirect ... header(location: ...); ) ... dann verschwindet die vermeintlich falsche "Seitenzahl" sauber aus dem Index und wird durch die neue ersetzt ;) ... ok wer codet? ;))))))

Warum hat man bei der Entwicklung von Foren nicht auf eine saubere Kompatiblität zu SuMas geachtet? Gibt es überhaupt ein 100% SuMa-Freundliches Forensystem? ;)

Bis denne
Wuppi
hemfrie
Mitglied
Beiträge: 11
Registriert: 25.05.2004 12:51
Wohnort: Düsseldorf
Kontaktdaten:

Beitrag von hemfrie »

ich hab diese Links bei mir im Forum für Google in folgendes Format umgewandelt: http://www.xhtmlforum.de/viewtopic5282nr5282.html

Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.

Code: Alles auswählen

$urlin=array($prefix . '(?<!/)viewtopic.php\?p=([0-9]*)[#]([0-9]*)"|',);

$urlout=array('"viewtopic\\1nr\\2.html#\\2"',);
Wenn Du mal bei Google schaust
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.

:)
hemfrie
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

hemfrie hat geschrieben:ich hab diese Links bei mir im Forum für Google in folgendes Format umgewandelt: http://www.xhtmlforum.de/viewtopic5282nr5282.html

Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.

Code: Alles auswählen

$urlin=array($prefix . '(?<!/)viewtopic.php\?p=([0-9]*)[#]([0-9]*)"|',);

$urlout=array('"viewtopic\\1nr\\2.html#\\2"',);
Wenn Du mal bei Google schaust
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.

:)
hemfrie
Hi

das umschreiben ist ja kein Problem ... das Problem ist das man auf diese weise 2mal den gleichen Content in google drin hat (mit 2 unterschiedlichen Dateinamen ... einmal der Threadname und einmal der Postname) ... kann mir vorstellen das dieses nicht so gut ist (ggf. kommt noch ein dritter und vierter dazu: viewtopic.php?t bzw. p)

Naja wenn die Threadnamen (ftopic bzw. ehemals viewtopic.php?t=) erstmal genügend in google vorhanden sind, kann man die viewtopic.php in der robots.txt erstmal ausschließend .. klappt zwar net, aber das gewissen ist dann rein *GG*

Bis denne
Wuppi

PS: das beste wäre echt, wenn die 2.2 explizitit für SuMas vorbereiten würden - ohne das was doppelt vorkommt usw. ;) Die Chance besteht ja noch ;) ...

PPS: die Seitenzahl wäre ja nur nötig wenn ich das Threadformat nehmen würde (t=123; statt das Postformat: p=18923#18923) ... aber hier hab ich ja einen kleinen logikfehler reingebaut ;)
Dennis63
Ehemaliges Teammitglied
Beiträge: 2597
Registriert: 02.07.2003 18:46

Beitrag von Dennis63 »

Das ist doch ganz egal, wenn eine Seite zwei mal bei Google und co gelistet ist. Google z.B. blendet doppelte Seiten einfach aus.

Des weiteren glaube ich (aber ich bin mit der Meinung irgendwie ziemlich alleine) daß Google das ziemlich egal ist und genau so gut die normalen URLs des phpBB's listet.

Mein Grund für die Annahme:

Mein Forum, 19.000 Artikel, 15.000 Suchergebnisse ( = 79% )
http://www.google.de/search?q=site:www.happyforen.de

phpBB, 237.000 Artikel, 44.000 Suchergebnisse ( = 19% )
http://www.google.de/search?q=site:www.phpbb.de

Denn warum ist von phpBB nur ca 19% bei Google gelistet und von meinem Forum ca 79%? Ich habe ein paar (meist selbst geschriebende) optimierungen für Google drinne. Aber nicht die ShortURLs...

Grüße
Dennis
Benutzeravatar
Wuppi
Mitglied
Beiträge: 734
Registriert: 14.05.2002 23:04
Wohnort: Köln
Kontaktdaten:

Beitrag von Wuppi »

Hi

mhhh naja wenn jede Seite 2-3mal (mit highlight und div. anderen Varianten vielleicht sogarno 4-5mal) von google gespidert würde, würde ich das als spam werten! .. nicht umsonst sind doch diese Pseudo-Archive Kickgefährdet (weil hier der gleiche Inhalt nur im anderen Format angezeigt wird) ...

Zudem arbeite ich in Short-URLs um, weils besser ausschaut ... ftopic1234.html kann man z.b. gut mündlich Kommunizieren (besser als - "dann schau mal im Forum unter viewtopic.php?t=123" ... wenn dann noch Highlight und sonstiger müll drin hängt, erzählen das viele gleich komplett mit - weil sie es für wichtig halten (schon oft mitbekommen))

Naja ich hab mir zum Ziel gesetzt, soviel wie möglich in den Index zu bekommen - ohne dupletten ...

Noch nen Edit: Natürlich gibt es mehrere Methoden seine Seiten in den Index zu bekommen - Short-URLs, Keine Session-IDs, Sitemap, Archiv (wäre bei mir mittlerweile auf der Bannliste), spezielle SuMa-Version - und ich für meinen Teil hab die Short-URLs + Keine sIDs gewählt - und das heißt es jetzt zu verfeinern ...

@Dennis: wie ich sehe, sind bei dir die Session-IDs noch drin - lässte google auf ne Session-ID-Freien Seite crawlen? Oder welche Methode nutzt du?

Bis denne
Wuppi
Antworten

Zurück zu „phpBB 2.0: Mods in Entwicklung“