Ingo: Spam auf der Seite

Guten Morgen,

ich betreibe eine kleine News-Seite. Bei den News gibt es die Möglichkeit, Kommentare zu verfassen. Dies ist auch Gästen möglich. Jetzt habe ich allerdings seit einiger Zeit das Problem, dass immer mehr Werbung für Online Casinos, Viagra u.ä. gepostet wird. Ich möchte die Kommentarfunktion aber nicht nur für Registrierte frei geben. Auch auf Captcha Grafiken möchte ich der Einfachheit halber für meine Besucher verzichten. Habe inzwischen schon einen Wortfilter eingebaut, der die häufigsten Begriffe der Spammer ablehnt. Aber die lassen sich immer wieder etwas Neues einfallen, mit dem sie meine Seite zuspammen. Ein Großteil meiner Arbeit an der Seite liegt inzwischen darin, den Spam rauszulöschen. Habe täglich viele hundert Versuche, solchen Spam einzutragen, was ja selbst wenn das nicht klappt unnötigen Traffic für mich bedeutet. Auch die eigentlichen Besucherstatistiken werden dadurch enorm verfälscht. Jetzt meine Frage, gibt es vielleicht eine effektive Möglichkeit, diese Spammer vom Server fern zu halten?

  1. Schon versucht, die Header von den Seiten einzulesen und evtl die Informationsmetas durchzuforsten.

      
    if(is_file("http://www.irgendneseite.de/index.html"))  
    $datei = fopen("http://www.irgendneseite.de/index.html","r")  
    elseif(is_file("http://www.irgendneseite.de/index.php"))  
    $datei = fopen("http://www.irgendneseite.de/index.php","r")  
      
    for($i=0;$i<20;$i++)  
    {  
     $zeilen[i] = fgets($datei,200000000)  
    }  
    
    

    Anstatt der Url kannst du ja auch die Variable, die vorher einen Link abgefangen hat, eintragen. Solltest dann nur zwischen html-Index und PHP-index switchen.

    Sollte das funktionieren (habs noch nie probiert), kannst du nach <meta angaben suchen, die die Stichwörter der Seite beinhalten. Somit kannst du das alles abfangen.

    Sher gerne wird da aber auch so getrennt: Info ,      nächste Info        , nächste Info

    Sodass man nach dem Splitten ggf. noch mit trim() nachgreifen muss.

    MFG
    Griever

    1. hi,

      Schon versucht, die Header von den Seiten einzulesen und evtl die Informationsmetas durchzuforsten.

      Bitte was?

      Ingo machst sich sorgen um den zusätzlichen Traffic, der ihm durch Spam-Postings entsteht - und du schlägst dann auch noch vor (wenn ich das richtig verstanden habe), jede in einem Kommentar verlinkte Seite per Script abzurufen und zu analysieren ...?

      gruß,
      wahsaga

      --
      /voodoo.css:
      #GeorgeWBush { position:absolute; bottom:-6ft; }
      1. Ich habe das Problem auch bei einem Gästebuch auf einer Seite von mir.
        Seit ich die Filter etwas großzügiger gesetzt habe ist schon lange
        nichts mehr passiert. (2 Wochen ;) Leider müssen dann auch die
        normalen Eintrager bestimmte Regeln einhalten.
        Internetadressen werden z.B. nur noch mit [link] Link [link] - also
        eine Art Tag zugelassen, sonst ists sofort Spam und wird abgelehnt.

        Das Problem mit dem Traffic hat seit dem automatisch nach und nach
        nachgelassen (huch, 3 mal "nach"). Ist mir aber immer noch zu hoch.

        Grüße, Matze

  2. Guten Morgen,

    ... Auch auf Captcha Grafiken möchte ich der Einfachheit halber für meine Besucher verzichten. ...

    Also ich halte das druchaus für ein angemessenes und probates Mittel, Gästebücher und ähnliches zu schützen.
    Das Gästebuch meiner Seite ist auf diese Weise geschützt, wird trotzdem benutzt und ist weitgehend SPAM-frei (ca. 1 Spam pro Vierteljahr). Wer wirklich etwas zu sagen hat, wird sich durch den kleinen Aufwand, eine Captcha Grafik abzuschreiben, nicht abschrecken lassen.

  3. Hi,

    bei mir nimmt der Spam in letzter Zeit auch zu...

    Ein <input type="text" name="irgendwas" style="display: none; " /> tut's meistens... Wenn da was eingetragen ist, hast du's mit einem Spammer zu tun...

    E7