Meine Frage.
Ich habe eine robots.txt mit folgendem Inhalt erstellt:
Code: Alles auswählen
User-agent: *
Disallow:
/adm/
/assets/
/bin/
/cache/
/config/
/docs/
/download/
/dumper/
/ext/
/files/
/images/
/includes/
/language/
/phpbb/
/store/
/vendor
Allow:
/styles/
/
Die frage ist reichen diese beiden Sachen so aus das das Forum bei Suchmaschinen indexiert werden kann. Da ich mich mit der Materie noch nicht so auseinander gesetzt habe weiß ich leider nicht direkt welche Verzeichnisse ich dafür erlauben muss. Die Suchmaschinen sollen letzten endlich nur die Verzeichnisse durchsuchen dürfen die nötig sind und alle anderen sollten gesperrt sein.