Seite 8 von 131

Verfasst: 15.02.2004 17:58
von Root007
larsneo hat geschrieben:opera auf den aktuellen stand aktualisieren :roll:
Ähm, 7.23 ist der aktuellste Stand... :roll: (oder ist das zu modern?)

Verfasst: 15.02.2004 18:08
von larsneo
(oder ist das zu modern?)
uups - scheint tatsächlich so zu sein - mit 7.22 tritt das problem nicht auf :-?

*edit: unter 7.23 auf win2000 auch nicht*

Verfasst: 15.02.2004 18:25
von Dave
http://www.uga-agga.com/xyz/index.php?c=11

Diese Adresse wird leider nicht als *.html angezeigt Was müßte ich machen das es auch so angezeigt wird?

Dave

Verfasst: 15.02.2004 18:29
von larsneo
@dave: hast du die anleitung wie beschrieben komplett befolgt? ist die .htaccess auf dem server? unterstützt der server das url rewriting?

@root007: probier in /includes/page_tail.php einmal folgendes snippet:

Code: Alles auswählen

if ( $do_gzip_compress )
{
	//
	// Borrowed from php.net!
	//
	$gzip_contents = ob_get_contents();
	//
	// Short URL implementation
	//
	$gzip_contents = replace_for_mod_rewrite($gzip_contents);
	ob_end_clean();
	
	$gzip_size = strlen($gzip_contents);
	$gzip_crc = crc32($gzip_contents);

	$gzip_contents = gzcompress($gzip_contents, 9);
	$gzip_contents = substr($gzip_contents, 0, strlen($gzip_contents) - 4);

	echo "\x1f\x8b\x08\x00\x00\x00\x00\x00";
	echo $gzip_contents;
	echo pack('V', $gzip_crc);
	echo pack('V', $gzip_size);
}

Verfasst: 15.02.2004 18:35
von Dave
ja die anderen URL's klappen soweit einwandfrei.... Ich denke es liegt am subforen Mod ;) der benutzt ja noch andere URL's als das normale phpbb

Verfasst: 15.02.2004 20:59
von KoSSo
larsneo hat geschrieben:kannst du eine kopie deiner .htaccess einmal als htaccess.txt zum download bereitstellen?
Hier: htaccess.txt

Grüße KoSSo

Verfasst: 16.02.2004 12:46
von fussle
OT: eh ich das ganze topic durchlese, wird dieses feature in der phpbb 2.2 eingebaut sein ?

Verfasst: 16.02.2004 14:15
von Wuppi
Hi

@fussle: wahrscheinlich nicht ... diese Mod muß auf den Server abgestimmt sein ... der Server muß z.b. mod_rewrite installiert haben (ist nicht überall der fall - und auch nicht überall möglich) - man müsste das per ACP enable/disablen können - aber ob sich dieser Aufwand da lohnt glaub ich weniger ...


Was anderes: den Mod hab ich auf meinem Testboard drauf => wenn ich jetzt will durch das Board surfe und dann im ACP schau, seh ich genau wo ich überall war ;) (leichen) ... wie kann ich das verhindern? (hab den Mod von Seite 1 plust ebenfalls auf Seite 1 die Erweiterung wg. nix sessions [da steht: nur aktivieren wenn Gäste keine Schreibrecht haben - Gäste haben bei uns schreibrechte und läuft auch im Testboard])

Bis denne
Wuppi

Verfasst: 17.02.2004 07:26
von Wuppi
Hi

gerade mal google gecheckt wie das Board hier erfasst ist ... ähh

Suchbegriff: site:phpbb.de

Ergebnisse: viele Seiten - aber noch mehr müll:

Code: Alles auswählen

www.phpbb.de/privmsg.php?mode=post&u=7310
Ähnliche Seiten

www.phpbb.de/viewtopic.php?t=8656&start=255
Ähnliche Seiten

www.phpbb.de/search.php?search_author=Acid
Ähnliche Seiten

www.phpbb.de/profile.php?mode=viewprofile&u=43
Ähnliche Seiten

www.phpbb.de/posting.php?mode=reply&t=8652
Ähnliche Seiten

www.phpbb.de/search.php?search_author=enrico
Ähnliche Seiten
Der hat also auch total wertlose Links gespidert ... kann man das etwas einschränken - das doch schon google flooding (??!!) - haben die da nicht was gegen??

Oder überseh ich was? ;)

Bis denne
Wuppi

Verfasst: 17.02.2004 12:27
von larsneo
das problem dabei liegt meiner meinung nach in der art und weise wie google (und natürlich auch andere searchengines) die seite spidern. es ist - nicht zuletzt aufgrund der pagerank geschichte ja nicht mehr nur so, dass ab und an ein spider losläuft und die seiten linear scannt (so wie z.b. der poodle predictor das aufzeigt) sondern es wird vielmehr versucht, links zu verfolgen und gemäss einer ganz eigenen logik in relation zueinander zu setzen. einen ganz interessanten (aber leider ellenlangen) beitrag dazu findet man z.b. hier. insbesondere wenn - wie zu erwarten ist - das 'florida SERP' prinzip in deutschland einzug hält wird die suchmaschinen-optimierung noch komplizierter...

die schon in meinem ersten posting angesprochene robots.txt bietet leider auch keine vollständige abhilfe da afaik google und co. die nur beachten, wenn sie auf 'normaler' spider-tour unterwegs sind - wenn sie anderen direkten links folgen bieten wohl nur entsprechende meta-tag informationen abhilfe die dynamisch zu generieren wären (content soll/soll nicht indiziert werden). alternativ wäre es eine möglichkeit, suchmaschinen via url-rewriting generell von bestimmten seiten fernzuhalten - alles aber mit entsprechend hohem aufwand verbunden...

mit anderen worten: mit der beschriebenen google optimierung kann man derzeit dynamische seiten besser in google & co. platzieren - ein garant für ein hohes page ranking / alexa site ranking ist das allerdings nicht.