Seite 2 von 2

Verfasst: 08.03.2006 13:19
von larsneo
afaik gibt es bislang keinen 'export to html' für's phpbb - macht imho auch recht wenig sinn, da dynamischer content und statische dateiformate nicht wirklich zusammenpassen (da bieten sich schon eher php acceleratoren und templating engines ala smarty an)
eine reihe von 'short url mods' gaukeln lediglich google durch den einsatz von mod_rewrite vor, dass es sich um statische (html) seiten handeln würde - tatsächlich läuft im hintergrund aber die normale php geschichte.
frei nach dem fisherman's friend motto: "ist google zu stark, ist dein server zu schwach" solltest du a) das enviroment noch einmal durchgehen und optimieren und b) google direkt kontaktieren.

übrigens kannst du bottätigkeit nicht via robots.txt einschränken sondern lediglich darum bitten, den gefundenen content nicht zu indexieren. bots lesen in aller regel erst einmal alles was sie finden können, die indexierung wird (zumindestens bei den guten...) später mit der robots.txt abgeglichen...

Verfasst: 08.03.2006 13:45
von Sascha Müller
O.k., alles klar. Dann ist das Archiv das hier exisiert also gar kein echtes Archiv? Es wird nur so getan als ob? Naja ... die ganzen anderen Suchmaschinen-Optimier-Mods haben wir schon installiert.

Wir haben jetzt auch den CTracker-Mod installiert und versuchen nun mal Google wieder freizugeben. Momentan ist Google gesperrt.

Vielen Dank noch mal für alle Tipps und Hinweise.

Schöne Grüße

Sascha

Verfasst: 08.03.2006 13:54
von larsneo
Naja ... die ganzen anderen Suchmaschinen-Optimier-Mods haben wir schon installiert.
...dann kann das unter umständen schon mit ein grund für die performanceprobleme sein.
htaccess ggfs. für apache2 (stichwort PERL-style regexps) optimieren, sql-queries (insbesondere bei keyword-urls) analysieren etcpp.

merke: nahezu jeder mod kostet performance - von daher läuft beispielsweise das nuforum als 'stripped down' vanilla phpbb und die sicherheit wird auf serverebene durch modsecurity gewährleistet...