Seite 1 von 1

Bot kommt, aber crawnt nicht

Verfasst: 07.10.2008 01:08
von test_nick
Hallo Leute,

Ich habe mal eine Frage zu den Bots:


Wieso kommen meine Bots auf meine Seite, aber sie crawen nicht !!!
Ich habe mein Forum bei Google angemeldet, aber Google erkennt das Forum nicht!

Und dazu habe ich noch eine Frage wenn ich jetzt bei

http://www.google.de

cache:http://AllphpBB.al.ohost.de

Eingebe dann bekomme ich ja den cache vom Google Bot der bis jetzt abgelaufen ist, aber wieso ist der Bot nur im September gekommen?????

Zusammenfassung:
  • Habe mein Forum bei Google regestriert
  • Habe eine SiteMap erstellt
  • Google [BOT] kommt auf mein Forum, aber crawnt nicht
  • Wenn ich bei Google.de cache:http://AllphpBB.al.ohost.de eingebe bekommt ich zwar die Cache meines Forums, aber eine sehr alte von September.
Würde mich sehr freuen um Hilfe!!!!



Mit freundlichen Grüßen:

Jan Schlösser

Verfasst: 07.10.2008 01:22
von cYbercOsmOnauT
  • Man kann die Spider von Google und Konsorten nicht dazu zwingen sämtliche Seiten seines Boards/Domains zu durchsuchen.
  • Man sollte keine Fremdwörter (und deutsche Wörter) verwenden deren Schreibweise man nicht kennt.
  • Bei Dir auf dem Board gibt es nunmal auch nicht wirklich was zu crawlen. Zich leere Foren erzeugen dieselbe Ausgabe -> Double Content und der Spider straft Dich mit großem Desintresse.
  • Google ist nicht dumm. Die Spider können sehr wohl erkennen, dass Deine Forenstruktur, sowie die FAQ-Einträge eine 1:1 Kopie vom Forum auf tutorials.de sind.
Grüße,
Tekin

Verfasst: 07.10.2008 01:41
von test_nick
Ich habe es erlaubt gekriegt Tutorials-Webmaster FAQ zu kopieren!

Verfasst: 07.10.2008 01:49
von cYbercOsmOnauT
Ändert nichts an der Tatsache, das Google die Kopie als solche erkennt und abstraft.

Verfasst: 07.10.2008 01:54
von test_nick
cYbercOsmOnauT hat geschrieben:Ändert nichts an der Tatsache, das Google die Kopie als solche erkennt und abstraft.
Habe dazu nochmal eine Frage wird dann das ganze Forum abgeblockt oder nur dieses Unterforum???

Verfasst: 07.10.2008 01:55
von cYbercOsmOnauT
Liest Du eigentlich auch, was man Dir antwortet?

Verfasst: 07.10.2008 15:50
von BayernCulture
Duplicate Content ist natürlich vernichtend, besser ist es also aus mehreren Artikeln zu dem Thema einen eigenen Verfassen, das schafft Schöpfungstiefe und man ist mit dem Copyright(Urheberrecht) auf der sicheren Seite.

Für Suchmaschinen sind Seiten interresant die viele eingende Links haben, Setze auch welche auf die Unterseiten ( Deeplinks). Nutze anfangs ein paar starke Webkataloge und mache dich später auf die suche nach Kontextsensitiven Linkpartnern.