Mich würde mal gerne interessieren wie man das macht das die Robots (Spider, Bots oder wie man sie nenen will) von Suchmaschinen jedes Wort deines Forums aufnehmen und in den Index setzen.
Habe schon viel darüber gelesen aber noch nie ne anleitung gefunden wie man es macht.
Geht das auch bei einer DYNDNS wenn man sozusagen von zuhause aus hostet?
Suchmaschinen Robots
Forumsregeln
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.1, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
phpBB 2.0 hat das Ende seiner Lebenszeit überschritten
phpBB 2.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 2.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf phpBB 3.1, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
-
- Mitglied
- Beiträge: 6
- Registriert: 07.08.2003 12:28
Einen "Rotot" zu erstellen der von einer Spider erfasst wird ist einfach, den allerdings dynamisch zu aktualisieren wird schwer, zumal wenn er zu groß wird viele Spider ihn ignorieren werden.
Den Robot erstellst du ganz einfach, in dem du in einem ROOT Verzeichnis der Domain eine Datei robot.txt erstellst, und da packst du deine Schlagwörter rein.
Wie gesagt, Ab einer bestimmten größe ignorieren viele Spider die Robots, da sonnst die Datenmenge der Suchmaschienen zu voll werden würde, und ich denke das auch nur bestimmte Schlagworte reichen dürften....
Den Robot erstellst du ganz einfach, in dem du in einem ROOT Verzeichnis der Domain eine Datei robot.txt erstellst, und da packst du deine Schlagwörter rein.
Wie gesagt, Ab einer bestimmten größe ignorieren viele Spider die Robots, da sonnst die Datenmenge der Suchmaschienen zu voll werden würde, und ich denke das auch nur bestimmte Schlagworte reichen dürften....
Noch was. ich habe mir da schon was überlegt wie ich das Dynamisch ab besten hinbekomme. Ich nutze einfach den Webspace von meinen Arcoraccount als eingang dort schmeiße ich die robot.txt ins Root und erstalle eine indexhtml die auf meine Dyndns Adresse verweist. So bin ich immer erreichbar für die Suchmaschine auch wenn ich mal nicht erreichbar bin . Also vom Provider getrennt worden bin und die URL wird auch nicht aus dem Index gelösch wie es mir schon einmal passiert ist.
Ob das funktionieret was meint ihr?
Ob das funktionieret was meint ihr?