Seite 4 von 4

Verfasst: 26.02.2004 21:46
von Wuppi
mirk hat geschrieben:
dogholiday hat geschrieben:So und damit Ihr mir glaubt das es wirklich funktioniert:
http://www.google.de/search?q=site%3Afo ... l=de&meta=
Ergebnisse von ungefähr 70,500. Suchdauer: 0.19 Sekunden
finde ich ja fast traurig das du mit 8'000 beiträgen 70'500 indexierte seiten hast... jedes thema ist bei dir x-fach indexiert... printview, index, ptopic und dann hast du noch x-seiten wie die: http://forum.2lucky.de/posting.php?mode=smilies auch indexiert... die bringen speziell viele besucher... :roll:

ich dänke nicht das dich jetzt google deswegen kicken wird (vielleicht auch doch...) ...aber das ist auf jedem fall eine unmenge datenmüll der alles lansamer macht und dir genau keinen nützen bringt... ich würde dir vorschlagen eine vernünftige robots.txt hoch zu laden

etwa so eine:
.....
Hi

das phpbb.de hat auch dieses problem - da sind zig seiten doppelt und dreifach in google ... die haben, wie wir auch, den short-urls-mod drinne. Und ne robots.txt gibt es auch - das schert google aber nicht. Laut robots.txt darf keine profile.php gespidert werden - aber google ist damit voll!

Es muß dafür also eine bessere lösung geben ... Ideen?

Wuppi

Verfasst: 06.12.2004 22:12
von Ossiostborn
Matlock hat geschrieben:
gamesbay.de hat geschrieben:Kann keiner helfen ?

Hatte was bei phpbb.con gefunden, nur hat des nicht gefunzt.
Ich hab aus einem der Threads die man dazu finden konnte, jetzt das hier genommen:

Code: Alles auswählen

#-----[ OPEN  ]------------------------------------------ 
includes/sessions.php 

#-----[ FIND ]------------------------------------------ 
   global $SID; 

   if ( !empty($SID) && !eregi('sid=', $url) ) 

#-----[ REPLACE WITH ]------------------------------------------ 
   global $SID, $HTTP_SERVER_VARS; 

   if ( !empty($SID) && !eregi('sid=', $url) && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Googlebot') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'slurp@inktomi.com;')) 

#-----[ SAVE/CLOSE ALL FILES ]------------------------------------------

Wobei das bei meinem 2.0.6 geringfügig anders aussieht und ich hab dann nur den Teil ab "&& !strstr ....." rein und den vorderen Teil der if-Abfrage gelassen wie er war.

Ob es funzt bzw. was bringt, seh ich erst demnächst über den Google-Link, den Du oben gemacht hast, wenn Google wieder da war und ich denk, das geht auch ne Weile, bis sich das auswirkt.
Bei mir sieht das ganze jetzt seit 5-7Monaten so aus:
...

//
// Delete existing session
//
$sql = "DELETE FROM " . SESSIONS_TABLE . "
WHERE session_id = '$session_id'
AND session_user_id = $user_id";
if ( !$db->sql_query($sql) )
{
message_die(CRITICAL_ERROR, 'Error removing user session', '', __LINE__, __FILE__, $sql);
}

setcookie($cookiename . '_data', '', $current_time - 31536000, $cookiepath, $cookiedomain, $cookiesecure);
setcookie($cookiename . '_sid', '', $current_time - 31536000, $cookiepath, $cookiedomain, $cookiesecure);

return true;
}

//
// Append $SID to a url. Borrowed from phplib and modified. This is an
// extra routine utilised by the session code above and acts as a wrapper
// around every single URL and form action. If you replace the session
// code you must include this routine, even if it's empty.
//
function append_sid($url, $non_html_amp = false)
{
global $SID, $HTTP_SERVER_VARS;

if ( !empty($SID) && !eregi('sid=', $url) && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'Googlebot') && !strstr($HTTP_SERVER_VARS['HTTP_USER_AGENT'] ,'slurp@inktomi.com;'))


{
$url .= ( ( strpos($url, '?') != false ) ? ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID;
}

return $url;
}

?>
Trotzdem werdem meine Themen nicht bei google aufgelistet, hab ich etwas was falsch gemacht? Das google die links nur alle 2-3Monate aktualisiert is ja ok, aber seit über einem halben jahr?

Verfasst: 12.12.2004 18:28
von Ossiostborn
Och, bitte helft mir, nur einer?! Wäre wirklich ganz nett von euch!