Short URLs für phpBB2
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
-
- Mitglied
- Beiträge: 797
- Registriert: 14.11.2002 14:04
- Wohnort: irgendwo im süden
- Kontaktdaten:
vielleicht nimmt der webbi von hier noch dazu stellung. (er hat es hier ja umgesetzt)
hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?
denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?
denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
thompson hat geschrieben: hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?
denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
Naja .... die urls sehen net so gut aus - nen bissel optik darf man seinem Usern ja wohl gönnen


Bis denne
Wuppi
Hi
zum "postdays=0&postorder=asc"-Problem:
Suche in der page_header.php
Ersetze:
Statt:
ftopic5676-0-asc-0.html (viewtopic.php?t=5676&postdays=0&postorder=asc&start=0)
sehen die Links nun so aus: ftopic5676-15.html
Also nur noch das t= und start= wird genommen - der rest wird ignoriert.
Das Problem: die erste Seite, wenn man über forums123.html die Seite joind, sieht so aus: ftopic5676.html ... die Seite 2 hat dann ja den Seitenbegrenzer drin (15 z.b. => ftopic5676-15.html) ... die erste Seite innerhalb des ftopic-Bereichs sieht dann aber ftopic5676-0.html aus :/
Jemand ne Idee wie ich die erste Seite IMMER Ohne &start=0 / -0 setzen kann?? ... wie kann ich die per robots.txt aussperren? (disallow: /ftopic ... und weiter?
)
Bis denne
Wuppi
PS: sämtliche Modifikationen in diesem Mod die ich gemacht habe, findet ihr unter http://www.phpbb.de/topic56605.html
zum "postdays=0&postorder=asc"-Problem:
Suche in der page_header.php
Code: Alles auswählen
'"ftopic\\1-\\2-\\3-\\4.html"',
Code: Alles auswählen
'"ftopic\\1-\\4.html"',
ftopic5676-0-asc-0.html (viewtopic.php?t=5676&postdays=0&postorder=asc&start=0)
sehen die Links nun so aus: ftopic5676-15.html
Also nur noch das t= und start= wird genommen - der rest wird ignoriert.
Das Problem: die erste Seite, wenn man über forums123.html die Seite joind, sieht so aus: ftopic5676.html ... die Seite 2 hat dann ja den Seitenbegrenzer drin (15 z.b. => ftopic5676-15.html) ... die erste Seite innerhalb des ftopic-Bereichs sieht dann aber ftopic5676-0.html aus :/
Jemand ne Idee wie ich die erste Seite IMMER Ohne &start=0 / -0 setzen kann?? ... wie kann ich die per robots.txt aussperren? (disallow: /ftopic ... und weiter?

Bis denne
Wuppi
PS: sämtliche Modifikationen in diesem Mod die ich gemacht habe, findet ihr unter http://www.phpbb.de/topic56605.html
Hi
einen Ansatz für das "statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245" Problem (damit man das vernünftig rewriten kann; und nicht noch mehr doppelte Seiten im SuMa-Index drin hat) hab ich jetzt:
viewtopic.php?t=123#1245 <- sowas an Link bekomm ich jetzt hin. Nur was ich übersehen hab: wenn der Post 1245 auf der 3. Seite liegt, klappt dat nicht. In die URL muß also noch die "Seite" rein ...
viewtopic.php?t=123&start=30#1245 (für die 3. Seite; wenn man je 15 Beiträge/Seite hat)
Da brauch ich aber zuarbeit von einem Profi
Wie kann ich das bewerkstelligen? Ist das überhaupt möglich?
Bis denne
Wuppi
einen Ansatz für das "statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245" Problem (damit man das vernünftig rewriten kann; und nicht noch mehr doppelte Seiten im SuMa-Index drin hat) hab ich jetzt:
viewtopic.php?t=123#1245 <- sowas an Link bekomm ich jetzt hin. Nur was ich übersehen hab: wenn der Post 1245 auf der 3. Seite liegt, klappt dat nicht. In die URL muß also noch die "Seite" rein ...
viewtopic.php?t=123&start=30#1245 (für die 3. Seite; wenn man je 15 Beiträge/Seite hat)
Da brauch ich aber zuarbeit von einem Profi

Bis denne
Wuppi
@wuppi
verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.
Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

hemfrie
verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.
Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

hemfrie
mhhh irgendwie haste rechthemfrie hat geschrieben:@wuppi
verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.
Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*
hemfrie

Das stellt das ganze natürlich vor einem Problem

Man muß nen bissel mehr Technik reinbringen




Warum hat man bei der Entwicklung von Foren nicht auf eine saubere Kompatiblität zu SuMas geachtet? Gibt es überhaupt ein 100% SuMa-Freundliches Forensystem?

Bis denne
Wuppi
ich hab diese Links bei mir im Forum für Google in folgendes Format umgewandelt: http://www.xhtmlforum.de/viewtopic5282nr5282.html
Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.
Wenn Du mal bei Google schaust
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.

hemfrie
Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.
Code: Alles auswählen
$urlin=array($prefix . '(?<!/)viewtopic.php\?p=([0-9]*)[#]([0-9]*)"|',);
$urlout=array('"viewtopic\\1nr\\2.html#\\2"',);
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.

hemfrie
Hihemfrie hat geschrieben:ich hab diese Links bei mir im Forum für Google in folgendes Format umgewandelt: http://www.xhtmlforum.de/viewtopic5282nr5282.html
Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.
Wenn Du mal bei Google schaustCode: Alles auswählen
$urlin=array($prefix . '(?<!/)viewtopic.php\?p=([0-9]*)[#]([0-9]*)"|',); $urlout=array('"viewtopic\\1nr\\2.html#\\2"',);
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.
hemfrie
das umschreiben ist ja kein Problem ... das Problem ist das man auf diese weise 2mal den gleichen Content in google drin hat (mit 2 unterschiedlichen Dateinamen ... einmal der Threadname und einmal der Postname) ... kann mir vorstellen das dieses nicht so gut ist (ggf. kommt noch ein dritter und vierter dazu: viewtopic.php?t bzw. p)
Naja wenn die Threadnamen (ftopic bzw. ehemals viewtopic.php?t=) erstmal genügend in google vorhanden sind, kann man die viewtopic.php in der robots.txt erstmal ausschließend .. klappt zwar net, aber das gewissen ist dann rein *GG*
Bis denne
Wuppi
PS: das beste wäre echt, wenn die 2.2 explizitit für SuMas vorbereiten würden - ohne das was doppelt vorkommt usw.


PPS: die Seitenzahl wäre ja nur nötig wenn ich das Threadformat nehmen würde (t=123; statt das Postformat: p=18923#18923) ... aber hier hab ich ja einen kleinen logikfehler reingebaut

Das ist doch ganz egal, wenn eine Seite zwei mal bei Google und co gelistet ist. Google z.B. blendet doppelte Seiten einfach aus.
Des weiteren glaube ich (aber ich bin mit der Meinung irgendwie ziemlich alleine) daß Google das ziemlich egal ist und genau so gut die normalen URLs des phpBB's listet.
Mein Grund für die Annahme:
Mein Forum, 19.000 Artikel, 15.000 Suchergebnisse ( = 79% )
http://www.google.de/search?q=site:www.happyforen.de
phpBB, 237.000 Artikel, 44.000 Suchergebnisse ( = 19% )
http://www.google.de/search?q=site:www.phpbb.de
Denn warum ist von phpBB nur ca 19% bei Google gelistet und von meinem Forum ca 79%? Ich habe ein paar (meist selbst geschriebende) optimierungen für Google drinne. Aber nicht die ShortURLs...
Grüße
Dennis
Des weiteren glaube ich (aber ich bin mit der Meinung irgendwie ziemlich alleine) daß Google das ziemlich egal ist und genau so gut die normalen URLs des phpBB's listet.
Mein Grund für die Annahme:
Mein Forum, 19.000 Artikel, 15.000 Suchergebnisse ( = 79% )
http://www.google.de/search?q=site:www.happyforen.de
phpBB, 237.000 Artikel, 44.000 Suchergebnisse ( = 19% )
http://www.google.de/search?q=site:www.phpbb.de
Denn warum ist von phpBB nur ca 19% bei Google gelistet und von meinem Forum ca 79%? Ich habe ein paar (meist selbst geschriebende) optimierungen für Google drinne. Aber nicht die ShortURLs...
Grüße
Dennis
Hi
mhhh naja wenn jede Seite 2-3mal (mit highlight und div. anderen Varianten vielleicht sogarno 4-5mal) von google gespidert würde, würde ich das als spam werten! .. nicht umsonst sind doch diese Pseudo-Archive Kickgefährdet (weil hier der gleiche Inhalt nur im anderen Format angezeigt wird) ...
Zudem arbeite ich in Short-URLs um, weils besser ausschaut ... ftopic1234.html kann man z.b. gut mündlich Kommunizieren (besser als - "dann schau mal im Forum unter viewtopic.php?t=123" ... wenn dann noch Highlight und sonstiger müll drin hängt, erzählen das viele gleich komplett mit - weil sie es für wichtig halten (schon oft mitbekommen))
Naja ich hab mir zum Ziel gesetzt, soviel wie möglich in den Index zu bekommen - ohne dupletten ...
Noch nen Edit: Natürlich gibt es mehrere Methoden seine Seiten in den Index zu bekommen - Short-URLs, Keine Session-IDs, Sitemap, Archiv (wäre bei mir mittlerweile auf der Bannliste), spezielle SuMa-Version - und ich für meinen Teil hab die Short-URLs + Keine sIDs gewählt - und das heißt es jetzt zu verfeinern ...
@Dennis: wie ich sehe, sind bei dir die Session-IDs noch drin - lässte google auf ne Session-ID-Freien Seite crawlen? Oder welche Methode nutzt du?
Bis denne
Wuppi
mhhh naja wenn jede Seite 2-3mal (mit highlight und div. anderen Varianten vielleicht sogarno 4-5mal) von google gespidert würde, würde ich das als spam werten! .. nicht umsonst sind doch diese Pseudo-Archive Kickgefährdet (weil hier der gleiche Inhalt nur im anderen Format angezeigt wird) ...
Zudem arbeite ich in Short-URLs um, weils besser ausschaut ... ftopic1234.html kann man z.b. gut mündlich Kommunizieren (besser als - "dann schau mal im Forum unter viewtopic.php?t=123" ... wenn dann noch Highlight und sonstiger müll drin hängt, erzählen das viele gleich komplett mit - weil sie es für wichtig halten (schon oft mitbekommen))
Naja ich hab mir zum Ziel gesetzt, soviel wie möglich in den Index zu bekommen - ohne dupletten ...
Noch nen Edit: Natürlich gibt es mehrere Methoden seine Seiten in den Index zu bekommen - Short-URLs, Keine Session-IDs, Sitemap, Archiv (wäre bei mir mittlerweile auf der Bannliste), spezielle SuMa-Version - und ich für meinen Teil hab die Short-URLs + Keine sIDs gewählt - und das heißt es jetzt zu verfeinern ...
@Dennis: wie ich sehe, sind bei dir die Session-IDs noch drin - lässte google auf ne Session-ID-Freien Seite crawlen? Oder welche Methode nutzt du?
Bis denne
Wuppi