Ähm, 7.23 ist der aktuellste Stand... (oder ist das zu modern?)larsneo hat geschrieben:opera auf den aktuellen stand aktualisieren
Short URLs für phpBB2
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.0, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
http://www.uga-agga.com/xyz/index.php?c=11
Diese Adresse wird leider nicht als *.html angezeigt Was müßte ich machen das es auch so angezeigt wird?
Dave
Diese Adresse wird leider nicht als *.html angezeigt Was müßte ich machen das es auch so angezeigt wird?
Dave
- larsneo
- Mitglied
- Beiträge: 2622
- Registriert: 07.03.2002 15:23
- Wohnort: schwäbisch gmünd
- Kontaktdaten:
@dave: hast du die anleitung wie beschrieben komplett befolgt? ist die .htaccess auf dem server? unterstützt der server das url rewriting?
@root007: probier in /includes/page_tail.php einmal folgendes snippet:
@root007: probier in /includes/page_tail.php einmal folgendes snippet:
Code: Alles auswählen
if ( $do_gzip_compress )
{
//
// Borrowed from php.net!
//
$gzip_contents = ob_get_contents();
//
// Short URL implementation
//
$gzip_contents = replace_for_mod_rewrite($gzip_contents);
ob_end_clean();
$gzip_size = strlen($gzip_contents);
$gzip_crc = crc32($gzip_contents);
$gzip_contents = gzcompress($gzip_contents, 9);
$gzip_contents = substr($gzip_contents, 0, strlen($gzip_contents) - 4);
echo "\x1f\x8b\x08\x00\x00\x00\x00\x00";
echo $gzip_contents;
echo pack('V', $gzip_crc);
echo pack('V', $gzip_size);
}
Zuletzt geändert von larsneo am 15.02.2004 19:15, insgesamt 2-mal geändert.
Hier: htaccess.txtlarsneo hat geschrieben:kannst du eine kopie deiner .htaccess einmal als htaccess.txt zum download bereitstellen?
Grüße KoSSo
Hi
@fussle: wahrscheinlich nicht ... diese Mod muß auf den Server abgestimmt sein ... der Server muß z.b. mod_rewrite installiert haben (ist nicht überall der fall - und auch nicht überall möglich) - man müsste das per ACP enable/disablen können - aber ob sich dieser Aufwand da lohnt glaub ich weniger ...
Was anderes: den Mod hab ich auf meinem Testboard drauf => wenn ich jetzt will durch das Board surfe und dann im ACP schau, seh ich genau wo ich überall war (leichen) ... wie kann ich das verhindern? (hab den Mod von Seite 1 plust ebenfalls auf Seite 1 die Erweiterung wg. nix sessions [da steht: nur aktivieren wenn Gäste keine Schreibrecht haben - Gäste haben bei uns schreibrechte und läuft auch im Testboard])
Bis denne
Wuppi
@fussle: wahrscheinlich nicht ... diese Mod muß auf den Server abgestimmt sein ... der Server muß z.b. mod_rewrite installiert haben (ist nicht überall der fall - und auch nicht überall möglich) - man müsste das per ACP enable/disablen können - aber ob sich dieser Aufwand da lohnt glaub ich weniger ...
Was anderes: den Mod hab ich auf meinem Testboard drauf => wenn ich jetzt will durch das Board surfe und dann im ACP schau, seh ich genau wo ich überall war (leichen) ... wie kann ich das verhindern? (hab den Mod von Seite 1 plust ebenfalls auf Seite 1 die Erweiterung wg. nix sessions [da steht: nur aktivieren wenn Gäste keine Schreibrecht haben - Gäste haben bei uns schreibrechte und läuft auch im Testboard])
Bis denne
Wuppi
Hi
gerade mal google gecheckt wie das Board hier erfasst ist ... ähh
Suchbegriff: site:phpbb.de
Ergebnisse: viele Seiten - aber noch mehr müll:
Der hat also auch total wertlose Links gespidert ... kann man das etwas einschränken - das doch schon google flooding (??!!) - haben die da nicht was gegen??
Oder überseh ich was?
Bis denne
Wuppi
gerade mal google gecheckt wie das Board hier erfasst ist ... ähh
Suchbegriff: site:phpbb.de
Ergebnisse: viele Seiten - aber noch mehr müll:
Code: Alles auswählen
www.phpbb.de/privmsg.php?mode=post&u=7310
Ähnliche Seiten
www.phpbb.de/viewtopic.php?t=8656&start=255
Ähnliche Seiten
www.phpbb.de/search.php?search_author=Acid
Ähnliche Seiten
www.phpbb.de/profile.php?mode=viewprofile&u=43
Ähnliche Seiten
www.phpbb.de/posting.php?mode=reply&t=8652
Ähnliche Seiten
www.phpbb.de/search.php?search_author=enrico
Ähnliche Seiten
Oder überseh ich was?
Bis denne
Wuppi
- larsneo
- Mitglied
- Beiträge: 2622
- Registriert: 07.03.2002 15:23
- Wohnort: schwäbisch gmünd
- Kontaktdaten:
das problem dabei liegt meiner meinung nach in der art und weise wie google (und natürlich auch andere searchengines) die seite spidern. es ist - nicht zuletzt aufgrund der pagerank geschichte ja nicht mehr nur so, dass ab und an ein spider losläuft und die seiten linear scannt (so wie z.b. der poodle predictor das aufzeigt) sondern es wird vielmehr versucht, links zu verfolgen und gemäss einer ganz eigenen logik in relation zueinander zu setzen. einen ganz interessanten (aber leider ellenlangen) beitrag dazu findet man z.b. hier. insbesondere wenn - wie zu erwarten ist - das 'florida SERP' prinzip in deutschland einzug hält wird die suchmaschinen-optimierung noch komplizierter...
die schon in meinem ersten posting angesprochene robots.txt bietet leider auch keine vollständige abhilfe da afaik google und co. die nur beachten, wenn sie auf 'normaler' spider-tour unterwegs sind - wenn sie anderen direkten links folgen bieten wohl nur entsprechende meta-tag informationen abhilfe die dynamisch zu generieren wären (content soll/soll nicht indiziert werden). alternativ wäre es eine möglichkeit, suchmaschinen via url-rewriting generell von bestimmten seiten fernzuhalten - alles aber mit entsprechend hohem aufwand verbunden...
mit anderen worten: mit der beschriebenen google optimierung kann man derzeit dynamische seiten besser in google & co. platzieren - ein garant für ein hohes page ranking / alexa site ranking ist das allerdings nicht.
die schon in meinem ersten posting angesprochene robots.txt bietet leider auch keine vollständige abhilfe da afaik google und co. die nur beachten, wenn sie auf 'normaler' spider-tour unterwegs sind - wenn sie anderen direkten links folgen bieten wohl nur entsprechende meta-tag informationen abhilfe die dynamisch zu generieren wären (content soll/soll nicht indiziert werden). alternativ wäre es eine möglichkeit, suchmaschinen via url-rewriting generell von bestimmten seiten fernzuhalten - alles aber mit entsprechend hohem aufwand verbunden...
mit anderen worten: mit der beschriebenen google optimierung kann man derzeit dynamische seiten besser in google & co. platzieren - ein garant für ein hohes page ranking / alexa site ranking ist das allerdings nicht.