Seite 8 von 131
Verfasst: 15.02.2004 17:58
von Root007
larsneo hat geschrieben:opera auf den aktuellen stand aktualisieren

Ähm, 7.23 ist der aktuellste Stand...

(oder ist das zu modern?)
Verfasst: 15.02.2004 18:08
von larsneo
(oder ist das zu modern?)
uups - scheint tatsächlich so zu sein - mit 7.22 tritt das problem nicht auf
*edit: unter 7.23 auf win2000 auch nicht*
Verfasst: 15.02.2004 18:25
von Dave
http://www.uga-agga.com/xyz/index.php?c=11
Diese Adresse wird leider nicht als *.html angezeigt Was müßte ich machen das es auch so angezeigt wird?
Dave
Verfasst: 15.02.2004 18:29
von larsneo
@dave: hast du die anleitung wie beschrieben komplett befolgt? ist die .htaccess auf dem server? unterstützt der server das url rewriting?
@root007: probier in /includes/page_tail.php einmal folgendes snippet:
Code: Alles auswählen
if ( $do_gzip_compress )
{
//
// Borrowed from php.net!
//
$gzip_contents = ob_get_contents();
//
// Short URL implementation
//
$gzip_contents = replace_for_mod_rewrite($gzip_contents);
ob_end_clean();
$gzip_size = strlen($gzip_contents);
$gzip_crc = crc32($gzip_contents);
$gzip_contents = gzcompress($gzip_contents, 9);
$gzip_contents = substr($gzip_contents, 0, strlen($gzip_contents) - 4);
echo "\x1f\x8b\x08\x00\x00\x00\x00\x00";
echo $gzip_contents;
echo pack('V', $gzip_crc);
echo pack('V', $gzip_size);
}
Verfasst: 15.02.2004 18:35
von Dave
ja die anderen URL's klappen soweit einwandfrei.... Ich denke es liegt am subforen Mod

der benutzt ja noch andere URL's als das normale phpbb
Verfasst: 15.02.2004 20:59
von KoSSo
larsneo hat geschrieben:kannst du eine kopie deiner .htaccess einmal als htaccess.txt zum download bereitstellen?
Hier:
htaccess.txt
Grüße KoSSo
Verfasst: 16.02.2004 12:46
von fussle
OT: eh ich das ganze topic durchlese, wird dieses feature in der phpbb 2.2 eingebaut sein ?
Verfasst: 16.02.2004 14:15
von Wuppi
Hi
@fussle: wahrscheinlich nicht ... diese Mod muß auf den Server abgestimmt sein ... der Server muß z.b. mod_rewrite installiert haben (ist nicht überall der fall - und auch nicht überall möglich) - man müsste das per ACP enable/disablen können - aber ob sich dieser Aufwand da lohnt glaub ich weniger ...
Was anderes: den Mod hab ich auf meinem Testboard drauf => wenn ich jetzt will durch das Board surfe und dann im ACP schau, seh ich genau wo ich überall war

(leichen) ... wie kann ich das verhindern? (hab den Mod von Seite 1 plust ebenfalls auf Seite 1 die Erweiterung wg. nix sessions [da steht: nur aktivieren wenn Gäste keine Schreibrecht haben - Gäste haben bei uns schreibrechte und läuft auch im Testboard])
Bis denne
Wuppi
Verfasst: 17.02.2004 07:26
von Wuppi
Hi
gerade mal google gecheckt wie das Board hier erfasst ist ... ähh
Suchbegriff:
site:phpbb.de
Ergebnisse: viele Seiten - aber noch mehr müll:
Code: Alles auswählen
www.phpbb.de/privmsg.php?mode=post&u=7310
Ähnliche Seiten
www.phpbb.de/viewtopic.php?t=8656&start=255
Ähnliche Seiten
www.phpbb.de/search.php?search_author=Acid
Ähnliche Seiten
www.phpbb.de/profile.php?mode=viewprofile&u=43
Ähnliche Seiten
www.phpbb.de/posting.php?mode=reply&t=8652
Ähnliche Seiten
www.phpbb.de/search.php?search_author=enrico
Ähnliche Seiten
Der hat also auch total wertlose Links gespidert ... kann man das etwas einschränken - das doch schon google flooding (??!!) - haben die da nicht was gegen??
Oder überseh ich was?
Bis denne
Wuppi
Verfasst: 17.02.2004 12:27
von larsneo
das problem dabei liegt meiner meinung nach in der art und weise wie google (und natürlich auch andere searchengines) die seite spidern. es ist - nicht zuletzt aufgrund der
pagerank geschichte ja nicht mehr nur so, dass ab und an ein spider losläuft und die seiten linear scannt (so wie z.b. der
poodle predictor das aufzeigt) sondern es wird vielmehr versucht, links zu verfolgen und gemäss einer ganz eigenen logik in relation zueinander zu setzen. einen ganz interessanten (aber leider ellenlangen) beitrag dazu findet man z.b.
hier. insbesondere wenn - wie zu erwarten ist - das
'florida SERP' prinzip in deutschland einzug hält wird die suchmaschinen-optimierung noch komplizierter...
die schon in meinem ersten posting angesprochene robots.txt bietet leider auch keine vollständige abhilfe da afaik google und co. die nur beachten, wenn sie auf 'normaler' spider-tour unterwegs sind - wenn sie anderen direkten links folgen bieten wohl nur entsprechende meta-tag informationen abhilfe die dynamisch zu generieren wären (content soll/soll nicht indiziert werden). alternativ wäre es eine möglichkeit, suchmaschinen via url-rewriting generell von bestimmten seiten fernzuhalten - alles aber mit entsprechend hohem aufwand verbunden...
mit anderen worten: mit der beschriebenen google optimierung kann man derzeit dynamische seiten
besser in google & co. platzieren - ein garant für ein hohes page ranking / alexa site ranking ist das allerdings nicht.