Short URLs für phpBB2

In diesem Forum können Mod-Autoren ihre Mods vorstellen, die sich noch im Entwicklungsstatus befinden. Der Einbau in Foren im produktiven Betrieb wird nicht empfohlen.
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Benutzeravatar
larsneo
Mitglied
Beiträge: 2622
Registriert: 07.03.2002 15:23
Wohnort: schwäbisch gmünd
Kontaktdaten:

Beitrag von larsneo »

aber mag meine seite lieber nicht hier bekannt geben
...dann mag ich dir auch nicht helfen :D
falls du trotzdem darüber weiterdiskutieren willst, beherzige bitte wenigstens die aufforderung das in einem neuen topic zu tun.
gruesse aus dem wilden sueden
larsneo
..::[krapohl.net]::..
Petra20
Mitglied
Beiträge: 247
Registriert: 15.01.2005 13:49
Wohnort: Wien

Beitrag von Petra20 »

hast ja recht, ich hör schon auf :cookie:

nochmal vielen danka für deinen super revrite codes ;)
webmaster128
Mitglied
Beiträge: 77
Registriert: 14.05.2005 07:49
Wohnort: localhost
Kontaktdaten:

Short URLs in append_sid()

Beitrag von webmaster128 »

Hallo Leute

ich muss gestehen ich habe jetzt nicht alle 118 Seite gelesen und weiß nicht in wiefern die Frage schon behandelt wurde.

Wäre es nicht sinnvoll die Short-Urls in die append_sid() mit einzubinden?

Ich würde mal behaupten das wäre schneller als den gesamten Seiteninhalt zu cachen und dann den kompletten Inhalt zu durchsuchen

Da ich leider nicht so der Held in Sachen Pattern bin, bin ich leider noch nicht weit gekommen

Code: Alles auswählen

function append_sid($url, $non_html_amp = false)
{
	global $SID;
	if ( !empty($SID) && !preg_match('#sid=#', $url) )
	{
		$url .= ( ( strpos($url, '?') !== false ) ?  ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID;
	}
		
	return replace_for_mod_rewrite($url);
}
So in etwa hatte ich mir das vorgestellt aber da tut er garnichts
Ich denke die replace_for_mod_rewrite() müsste dazu noch etwas geändert werden

mfG

Simon Warta
Benutzeravatar
larsneo
Mitglied
Beiträge: 2622
Registriert: 07.03.2002 15:23
Wohnort: schwäbisch gmünd
Kontaktdaten:

Beitrag von larsneo »

Wäre es nicht sinnvoll die Short-Urls in die append_sid() mit einzubinden?
nein - der inhalt des output-buffers ist aufgrund der globalen wirkung die bessere stelle zum ansetzen ;-)
gruesse aus dem wilden sueden
larsneo
..::[krapohl.net]::..
paperboy
Mitglied
Beiträge: 11
Registriert: 15.06.2005 13:18

Beitrag von paperboy »

Hallo,

erst einmal möchte ich mich bedanken für diesen tollen Mod. :grin:

Hätte jedoch noch eine Frage: ( ich hoffe sie wurde noch nicht gestellt, ist bei 120 Seiten etwas schwierig rauszufinden. ;) )

Und zwar wollte ich fragen ob es möglich ist die schreibweise wie in anderen Foren folgendermaßen zu gestalten:

Anstatt: http://www.domain.de/forum1.html/

hätte ich gerne:

http://www.domain.de/forumname.html bzw.
http://www.domain.de/name_des_threads.html

Natürlich die Zahlen noch mit drinnen, geht wahrscheinlich nicht ohne.
Denkt ihr sowas ist machbar? Mir als PHP Dau sind da leider die Hände gebunden. :(

greetz
Benutzeravatar
larsneo
Mitglied
Beiträge: 2622
Registriert: 07.03.2002 15:23
Wohnort: schwäbisch gmünd
Kontaktdaten:

Beitrag von larsneo »

für "sprechende" links gibt es ebenfalls mods (z.b. *klick*) - diese zeichnen sich aber durch einen (teilweise wesentlich!) höheren ressourcenverbrauch durch zusätzliche queries aus und waren von daher für mich uninteressant (das nuforum hat mehr als 300k seitenabrufe pro tag, da kämpft man um jede einzelne querie...)
suchmaschinentechnisch haben die sprechenden links (zumindestens im nuforum) übrigens scheinbar keine auswirkungen, mein entsprechend optimiertes archiv ist nicht wirklich besser gelistet...
gruesse aus dem wilden sueden
larsneo
..::[krapohl.net]::..
paperboy
Mitglied
Beiträge: 11
Registriert: 15.06.2005 13:18

Beitrag von paperboy »

Vielen Dank für die info, da überlegt man sichs schon zweimal. :)
Für mich war eher interessant dass wenn ich über icq oder email jemanden einen Thread schicke er schon durch den titel erkennt um was es genau geht.

greetz
Xwitz
Mitglied
Beiträge: 1104
Registriert: 21.06.2005 21:41

Beitrag von Xwitz »

@ larsneo, erst mal tolle Sache das.

Nach dem ich noch vor ein paar Tagen geschrieben habe, daß mein unoptimiertes Forum ganz gut im Index steht, habe ich gerade auf statische Links umgebaut. :grin:

Bei Punkt 1 war schon Schluß. Ich habe dann

Code: Alles auswählen

RewriteCond %{REQUEST_FILENAME} /forums.html 
RewriteRule (.*) /index.php [L]
durch

Code: Alles auswählen

RewriteCond %{REQUEST_FILENAME} Pfad/forums.html 
RewriteRule (.*) Pfad/index.php [L]
ersetzt und die .htaccess in den root gelegt, dann ging es (komisch, andere .htaccess in Unterverzeichnissen funktionieren auch).

Sollte ich jetzt noch was beachten deswegen?

Was ich noch nicht sehe ist, wie verhindert wird, daß durch eingehende Links, weiterhin .../viewtopic.php?t=** Seiten indexiert werden. Das würde zu DC führen.
IPB_Flüchtling
Mitglied
Beiträge: 1862
Registriert: 23.12.2004 22:46

Beitrag von IPB_Flüchtling »

Xwitz hat geschrieben:Was ich noch nicht sehe ist, wie verhindert wird, daß durch eingehende Links, weiterhin .../viewtopic.php?t=** Seiten indexiert werden. Das würde zu DC führen.
Ahoi Xwitz,

jupp, dagegen kannst Du prinzipiell nur eines machen: Sperre die viewtopic.php per robots.txt! Dann landen derartige URLs (wenn sie von außen verlinkt sind) zwar auch noch im Google-Index, aber nur als "URL-Leichen" (also ohne Description), werden also nicht als duplicate content gewertet.

Andere Dateien, wie die profile.php, memberlist.php, posting.php und search.php, sollten ebenfalls via robots.txt gesperrt werden. Eine Beispiel für eine solche robots.txt-Datei findest Du auf www.seo-phpbb.org oder hier im Forum (Suchbegriffe: short urls robots.txt)

LG, IPB_Flüchtling
Xwitz
Mitglied
Beiträge: 1104
Registriert: 21.06.2005 21:41

Beitrag von Xwitz »

Ja, die robots.txt hatte ich schon aber bevor ich die viewtopic sperre leite ich lieber weiter (wenn es da keinen Konflikt gib, muß man schauen).

Aber ich werde erst mal schauen wieviel da überhaupt reinkommt, ist vielleicht auch nicht der Rede wert.
Antworten

Zurück zu „phpBB 2.0: Mods in Entwicklung“