Seite 1 von 1

100 Gäste = Bots

Verfasst: 01.07.2005 19:46
von sommer
Hi,

ich habe gestern urplötzlich ca. 100 Gäste auf meinem Forum gehabt und ich gehe davon aus, dass das fast alles Bots waren.
Es waren verschiedene IPs, aber bei Traceroute kam immer wieder folgendes raus "gphou-66-98-244-1.ev1.net".
Ich habe den "Show Bots In Online List" Mod installiert, nur wurden die da wohl nicht erkannt oder wars was anderes? Andere Mods erkennt er ohne Probleme.
Naja, auf alle Fälle war das Forum nach kurzer Zeit nicht mehr erreichbar.

Wie kann man denn solche Besuche unterbinden?
Am besten wäre, wenn alle Bots draußen bleiben! ;)

Verfasst: 01.07.2005 19:57
von Mario Siebert
Am besten wäre, wenn alle Bots draußen bleiben!
Wenn alle Bots draussen bleiben sollen leg in dein Root-Verzeichnis eine robots.txt mit folgendem Inhalt ab:

Code: Alles auswählen

User-agent: *
Disallow: /
Allerdings sperrst du damit wirklich alle Bots aus, auch Google.

Grüße Mario

Verfasst: 01.07.2005 20:05
von sommer
Stimmt, google sollte vielleicht noch rein dürfen! ;)
Welche sind denn sonst noch "notwendig"?

Verfasst: 19.07.2005 00:13
von sommer
Kann mit hier BITTE noch jemand ein paar Tipps für eine brauchbare robots.txt geben?
Ich habe hier zwar einige Threads durchgelesen und auch im Netz einige Seiten durchforscht, auch passende robots.txt-Generator gefunden, nur bin ich mir da noch nicht 100% sicher.

Suchmaschinen wie google und Co. sollten rein, klar, aber welche Bots sind nicht nötig?

Die robots.txt soll ja ins Stammverzeichnis.
Was ist aber wenn die Adresses des Forums z.B. so lautet http://forum.sommer.de ? Muß die Datei dann auch in dem Fall ins Stammverzeichnis http://www.sommer.de ?

In welchen Verzeichnissen haben die Bots denn nichts verloren?
Wie sollte in dem Fall http://forum.sommer.de das Verzeichnis angegeben werden?
Disallow: /forum/admin/ ...ist das richtig?


Vielen Dank für eure Antworten!

Verfasst: 19.07.2005 00:33
von axellauer
das ist mal meine liste unerwünschter bots wobei man auch erwähnen muss das nur wohlerzogene bots sich dran halten.
und die hier sind eher schlecht erzogen.
willst du dein problem wirklich ernsthaft und effektiv angehen bleibt dir nur dich eine weile mit htaccess zu beschäftigen.
oder such mal nach "bottrap" oder "bot trap".
nicht zu velwechsern mit "Bottrop" :wink:
User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: looksmart
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: ia_archiver/1.6
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: RMA
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: asterias
Disallow: /

User-agent: httplib
Disallow: /

User-agent: turingos
Disallow: /

User-agent: spanner
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Microsoft URL Control - 5.01.4511
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: WebmasterWorldForumBot
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: Microsoft URL Control - 6.00.8169
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: moget
Disallow: /

User-agent: hloader
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Openfind data gathere
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Xenu's Link Sleuth 1.1c
Disallow: /

User-agent: Xenu's
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: HTTrack
Disallow: /

Verfasst: 19.07.2005 20:30
von sommer
Bei den Verzeichnissen kannst du mir nicht weiterhelfen? Vielleicht jemand anderes? :grin: