Hallo zusammen,
mit welchem Befehl kann ich URLs wie die folgenden per robotx.txt ausschließen?
phpbb3/?t=6560&highlight=
phpbb3/?t=6618&highlight=
phpbb3/?t=6173&highlight=
Das macht ja in den google-Ergebnissen gar keinen Sinn, weil die URLs alle auf die Startseite führen und jetzt schon dutzende doppelte Einträge bei Google existieren.
Dass ich mit dem Befehl "Disallow: phpbb3/XXX" arbeiten muss/kann ist mir klar, aber was kann ich sozusagen als Variable einbauen, damit alle Einträge mit "t=XXX&highlight=" nicht mehr indiziert werden???
LG
Sinnlose URLs per robots.txt ausschließen
Forumsregeln
phpBB 3.0 hat das Ende seiner Lebenszeit überschritten
phpBB 3.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 3.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf die neuste phpBB-Version, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
phpBB 3.0 hat das Ende seiner Lebenszeit überschritten
phpBB 3.0 wird nicht mehr aktiv unterstützt. Insbesondere werden - auch bei Sicherheitslücken - keine Patches mehr bereitgestellt. Der Einsatz von phpBB 3.0 erfolgt daher auf eigene Gefahr. Wir empfehlen einen Umstieg auf die neuste phpBB-Version, welches aktiv weiterentwickelt wird und für welches regelmäßig Updates zur Verfügung gestellt werden.
Re: Sinnlose URLs per robots.txt ausschließen
Wo kommen denn diese URLs her? Sind das externe Verlinkungen anderer Webseiten?
Wenn dem so ist, kannst Du sehr wenig machen, außer auf G00gle zu vertrauen und dessen Algorithmen zur Erkennung von "sinnfreien" URLs.
Wenn dem so ist, kannst Du sehr wenig machen, außer auf G00gle zu vertrauen und dessen Algorithmen zur Erkennung von "sinnfreien" URLs.
Gruss, Miriam.
Ich schmeiß' alles hin und...
... lasse es liegen
Ich schmeiß' alles hin und...
... lasse es liegen