Bot kommt, aber crawnt nicht

Fragen zur Bedienung von phpBB 3.0.x, Probleme bei der Benutzung und alle weiteren Fragen inkl. Update auf die neuste phpBB 3.0.14 Version
Forumsregeln
phpBB 3.0 hat das Ende seiner Lebenszeit überschritten
phpBB 3.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 3.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf die neuste phpBB-Version, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Antworten
Benutzeravatar
test_nick
Mitglied
Beiträge: 447
Registriert: 24.08.2008 18:07
Wohnort: Neuss
Kontaktdaten:

Bot kommt, aber crawnt nicht

Beitrag von test_nick »

Hallo Leute,

Ich habe mal eine Frage zu den Bots:


Wieso kommen meine Bots auf meine Seite, aber sie crawen nicht !!!
Ich habe mein Forum bei Google angemeldet, aber Google erkennt das Forum nicht!

Und dazu habe ich noch eine Frage wenn ich jetzt bei

http://www.google.de

cache:http://AllphpBB.al.ohost.de

Eingebe dann bekomme ich ja den cache vom Google Bot der bis jetzt abgelaufen ist, aber wieso ist der Bot nur im September gekommen?????

Zusammenfassung:
  • Habe mein Forum bei Google regestriert
  • Habe eine SiteMap erstellt
  • Google [BOT] kommt auf mein Forum, aber crawnt nicht
  • Wenn ich bei Google.de cache:http://AllphpBB.al.ohost.de eingebe bekommt ich zwar die Cache meines Forums, aber eine sehr alte von September.
Würde mich sehr freuen um Hilfe!!!!



Mit freundlichen Grüßen:

Jan Schlösser
Benutzeravatar
cYbercOsmOnauT
Ehemaliges Teammitglied
Beiträge: 3820
Registriert: 18.02.2004 23:02
Wohnort: Göttingen
Kontaktdaten:

Beitrag von cYbercOsmOnauT »

  • Man kann die Spider von Google und Konsorten nicht dazu zwingen sämtliche Seiten seines Boards/Domains zu durchsuchen.
  • Man sollte keine Fremdwörter (und deutsche Wörter) verwenden deren Schreibweise man nicht kennt.
  • Bei Dir auf dem Board gibt es nunmal auch nicht wirklich was zu crawlen. Zich leere Foren erzeugen dieselbe Ausgabe -> Double Content und der Spider straft Dich mit großem Desintresse.
  • Google ist nicht dumm. Die Spider können sehr wohl erkennen, dass Deine Forenstruktur, sowie die FAQ-Einträge eine 1:1 Kopie vom Forum auf tutorials.de sind.
Grüße,
Tekin
• prof. phpbb-Installation, Reparatur, Rettung nach Hackattacken, sowie PHP/JS Programmierung aller Art
Zend Certified Engineer, Linux Administrator und die Sicherheit von 34 Jahren Programmiererfahrung
• Interesse? Kontakt unter t.birduezen@web-coding.eu
Benutzeravatar
test_nick
Mitglied
Beiträge: 447
Registriert: 24.08.2008 18:07
Wohnort: Neuss
Kontaktdaten:

Beitrag von test_nick »

Ich habe es erlaubt gekriegt Tutorials-Webmaster FAQ zu kopieren!
Benutzeravatar
cYbercOsmOnauT
Ehemaliges Teammitglied
Beiträge: 3820
Registriert: 18.02.2004 23:02
Wohnort: Göttingen
Kontaktdaten:

Beitrag von cYbercOsmOnauT »

Ändert nichts an der Tatsache, das Google die Kopie als solche erkennt und abstraft.
• prof. phpbb-Installation, Reparatur, Rettung nach Hackattacken, sowie PHP/JS Programmierung aller Art
Zend Certified Engineer, Linux Administrator und die Sicherheit von 34 Jahren Programmiererfahrung
• Interesse? Kontakt unter t.birduezen@web-coding.eu
Benutzeravatar
test_nick
Mitglied
Beiträge: 447
Registriert: 24.08.2008 18:07
Wohnort: Neuss
Kontaktdaten:

Beitrag von test_nick »

cYbercOsmOnauT hat geschrieben:Ändert nichts an der Tatsache, das Google die Kopie als solche erkennt und abstraft.
Habe dazu nochmal eine Frage wird dann das ganze Forum abgeblockt oder nur dieses Unterforum???
Benutzeravatar
cYbercOsmOnauT
Ehemaliges Teammitglied
Beiträge: 3820
Registriert: 18.02.2004 23:02
Wohnort: Göttingen
Kontaktdaten:

Beitrag von cYbercOsmOnauT »

Liest Du eigentlich auch, was man Dir antwortet?
• prof. phpbb-Installation, Reparatur, Rettung nach Hackattacken, sowie PHP/JS Programmierung aller Art
Zend Certified Engineer, Linux Administrator und die Sicherheit von 34 Jahren Programmiererfahrung
• Interesse? Kontakt unter t.birduezen@web-coding.eu
BayernCulture
Mitglied
Beiträge: 73
Registriert: 17.05.2007 20:06
Wohnort: Bayern
Kontaktdaten:

Beitrag von BayernCulture »

Duplicate Content ist natürlich vernichtend, besser ist es also aus mehreren Artikeln zu dem Thema einen eigenen Verfassen, das schafft Schöpfungstiefe und man ist mit dem Copyright(Urheberrecht) auf der sicheren Seite.

Für Suchmaschinen sind Seiten interresant die viele eingende Links haben, Setze auch welche auf die Unterseiten ( Deeplinks). Nutze anfangs ein paar starke Webkataloge und mache dich später auf die suche nach Kontextsensitiven Linkpartnern.
Antworten

Zurück zu „[3.0.x] Administration, Benutzung und Betrieb“