Ich persönlich stehe den Black-List Ansätzen jedoch skeptisch gegenüber, weil sie
- hohen Pflegeaufwand nach sich ziehen
- die Überprüfungen immer länger dauern, da die Listen immer größer werden
- es keine Kriterien gibt, welche Einträge auch wieder rausgenommen werden können
- die Wahrscheinlichkeit gering ist, dass ein erfasster Eintrag in 4 Wochen noch irgend eine Relevanz hat
Dazu ein paar Brainstorming Ideen:
- Da die Strings der Spammer wahrscheinlich nur einmal verwendet werden, ist es nicht wichtig, alle Strings zu wissen, sondern nur möglichst SCHNELL zu erfahren, was HEUTE an Spam gerade verschickt wird
- Vielleicht ist SCHNELL nicht realistisch, dann wäre eine automatisches Säuberungsskript alle 60 Minuten oder so ein möglicher Kompromiss
- Eine der Ideen aus dem genannten Thread war, die URL/email zu unterdrücken, wenn nicht Kriterien erfüllt sind. Das halte ich für sehr effizient, da es den Spammern den Nutzen raubt.
Wie steht ihr dazu? Oder denkt ihr, dass wir einen ganz anderen Ansatz brauchen?