Andreas: Seitenzugriffe

Hallo,
im Zuge von Ursachenforschung wg. ständigen Spamversuchen bin ich in der Log auf etwas gestoßen das ich nicht so richtig einordnen kann: Ca. 70 Seiten wurden innerhalb der gleichen Sekunde abgterufen, alles unterschiedliche Seiten aber 1 Rechnername: xxxxx.cfmx.de.
So wie ich es sehe wurde da automatisiert alle Seiten eingelesen, doch zu welchem Zweck? Sehen ob es da was Interessantes gibt?

Gruß Andreas

  1. Hello,

    So wie ich es sehe wurde da automatisiert alle Seiten eingelesen, doch zu welchem Zweck? Sehen ob es da was Interessantes gibt?

    Wenn es da nichts Interessantes gibt, was haben die Seiten dann im Globalen Netz zu suchen?

    Harzliche Grüße vom Berg
    esst mehr http://www.harte-harzer.de

    Tom

    --
    Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
    Nur selber lernen macht schlau
    1. lol, gute Antwort!

      So meinte ich das natürlich nicht. Mit Interessant meinte ich z.B. für Spammer Interessant, Gästebücher, Kontaktforms etc. K.A. was ein automatisiertes Script "interessant findet"

      Gruß Andreas

      1. Hello,

        lol, gute Antwort!

        Klar. Darum habe ich die Frage-Antwort gegeben ;-)

        So meinte ich das natürlich nicht. Mit Interessant meinte ich z.B. für Spammer Interessant, Gästebücher, Kontaktforms etc. K.A. was ein automatisiertes Script "interessant findet"

        Das versuchen diese Scripte meist herauszufinden.
        Sind denn die Seiten untereinander verlinkt?
        Hast Du geschaut, wem die IP des Requesters gehört?

        Schließlich sind die meisten Webmaster begeistert, wenn einige Male am Tag die Suchrobots vorbeikommen zur Indizierung der Seiten.

        Harzliche Grüße vom Berg
        esst mehr http://www.harte-harzer.de

        Tom

        --
        Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
        Nur selber lernen macht schlau
        1. Hallo,

          Das versuchen diese Scripte meist herauszufinden.

          ja dachte ich mir.

          Sind denn die Seiten untereinander verlinkt?

          ja natürlich.

          Hast Du geschaut, wem die IP des Requesters gehört?

          hab leider nur den Rechnername, wie im 1.Posting genannt.

          Schließlich sind die meisten Webmaster begeistert, wenn einige Male am Tag die Suchrobots vorbeikommen zur Indizierung der Seiten.

          Ja gerne, sind bei mir immer willkommen, nur ist der Rechner kein Bot.

          Gruß Andreas

          1. Hello,

            Schließlich sind die meisten Webmaster begeistert, wenn einige Male am Tag die Suchrobots vorbeikommen zur Indizierung der Seiten.
            Ja gerne, sind bei mir immer willkommen, nur ist der Rechner kein Bot.

            Woher weißt Du das, wenn Du die IP nicht checked hast?

            Harzliche Grüße vom Berg
            esst mehr http://www.harte-harzer.de

            Tom

            --
            Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
            Nur selber lernen macht schlau
            1. Hallo,

              Woher weißt Du das, wenn Du die IP nicht checked hast?

              Ich habe schon irgendwo im File die IP stehen nur nicht in der Auswertung, und da habe ich nur Rechnername. Bots haben alle ähnliche Namen die das Wort Bot oder Crawl enthalten, oder sind mir eben durch SuMa-Optimierungen bekannt wie z.B. looksmart etc.

              Gruß Andreas

              1. Könnte auch ein Grabber gewesen sein, die suchen Allesmögliche, Mailadressen, Bilder, sonstiges.
                Kenne das von meiner Website aus den Logs. Und Grabber laufen auf fast jedem Rechner.

                1. Moin!

                  Und Grabber laufen auf fast jedem Rechner.

                  Wie jetzt? verliere ich meinen Geek-Status, weil ich keinen laufen habe?

                  MFFG (Mit freundlich- friedfertigem Grinsen)

                  fastix®

                  --
                  Als Freiberufler bin ich immer auf der Suche nach Aufträgen: Schulungen, Seminare, Training, Development
  2. Moin!

    Hallo,
    im Zuge von Ursachenforschung wg. ständigen Spamversuchen bin ich in der Log auf etwas gestoßen das ich nicht so richtig einordnen kann: Ca. 70 Seiten wurden innerhalb der gleichen Sekunde abgterufen, alles unterschiedliche Seiten aber 1 Rechnername: xxxxx.cfmx.de.

    http://www.cfmx.de/index.cfm .... Sieht aus wie ein Hoster.

    So wie ich es sehe wurde da automatisiert alle Seiten eingelesen, doch zu welchem Zweck? Sehen ob es da was Interessantes gibt?

    Ja. Formulare, Formulare... Du kennst doch das Szenario nun schon. Wobei 70 Seiten ansonsten kein Problem darstellen. Schreib doch mal cfmx.de an, ob die sich sicher ist, dass sich deren Kunden sicher sind, dass den Servern nur die Dateien sind, von denen sie jeweils wissen... und vergiss nicht den Angriff nebst Spamversuch von neulich zu erwähnen, der lief auch über geknackte Webserver.

    Und sende die -> gegrepten <- Logfiles mit.

    MFFG (Mit freundlich- friedfertigem Grinsen)

    fastix®

    --
    Als Freiberufler bin ich immer auf der Suche nach Aufträgen: Schulungen, Seminare, Training, Development
    1. Hallo fastix,

      http://www.cfmx.de/index.cfm .... Sieht aus wie ein Hoster.

      Jau sieht so aus.

      Ja. Formulare, Formulare... Du kennst doch das Szenario nun schon. Wobei 70 Seiten ansonsten kein Problem darstellen. Schreib doch mal cfmx.de an, ob die sich sicher ist, dass sich deren Kunden sicher sind, dass den Servern nur die Dateien sind, von denen sie jeweils wissen... und vergiss nicht den Angriff nebst Spamversuch von neulich zu erwähnen, der lief auch über geknackte Webserver.

      Ja, Bezieht sich auf unser kürzliches "virtuelles" Gespräch. Ich habe halt mal die Logfiles der letzen Monate angesehen und da ist mir das halt aufgefallen. Ob es einen Zusammenhang gibt? K.A.
      Aber ich denke ich werde mich nicht an den Hoster wenden, wäre imo eh vergebene Mühe.

      Und sende die -> gegrepten <- Logfiles mit.

      ?? was ist gegrept??

      Aufgrund deines früheren Postings werde ich die Dateistruktur ändern und aus Kontakt.php z.B. Kartoffelschalen.php oder Eierbecher.php machen, irgend was unsinniges halt.

      Aber wenn die Dateien so wie oben beschrieben eingelesen werden denke ich wird das unterfangen bekannt werden da ja Keywords wie z.B. form das Dokument verraten.

      Gruß Andreas

      1. Moin!

        Aber ich denke ich werde mich nicht an den Hoster wenden, wäre imo eh vergebene Mühe.

        Das würde ich nicht so sehen. Auch der Hoster ist im Normalfall durchaus daran interessiert dass die Auftritte seiner Kunden 'sauber' sind. Und mit den IPs kann er die missbrauchten oder befallenen Server identifizieren und sich an die Kunden wenden oder selbst mal einen Blick auf die Dateien oder die Prozessliste werfen. Das es sich beim Hoster um eine 'LIMITED' handel kann zweierlei bedeuten: entweder ist er auf diese Art der Kundschaft 'eingestellt' oder im Gegensatz dazu sogar noch vorsichtiger um seinen geschäftlichen Ruf keine Kratzer zuzufügen. Limiteds haben in Deutschland durchaus ein Akzeptanzproblem. Sie werden zu oft von Betrügern missbraucht, was den reellen das Leben schwer macht.

        gegerept: "grep" ist ein nettes, superschnelles Tool zum Ausfiltern von Textdateien und stammt aus der UNIX/Linux-Welt (in der letzteren ist es noch besser geworden (egrep, fgrep...)

        Eine nette Sammlung der Unix-Tools für Windows gibt es bei sourceforge.net

        MFFG (Mit freundlich- friedfertigem Grinsen)

        fastix®

        --
        Als Freiberufler bin ich immer auf der Suche nach Aufträgen: Schulungen, Seminare, Training, Development
        1. Hallo,

          das mit den Limited kann ich nachvollziehen, hab es mir nämlich die Tage selbst aus dem Kopf geschlagen selbst eine zu gründen, denn bei der Haftungsfrage ist das Privatvermögen des "Directors" in Deutschland nicht außen vor, wie ich im Freelancer-Magazin las, und das Ansehen in Deutschland ist wirklich zweifelhaft.

          Danke nochmals für deine Erklärungen.

          Gruß Andreas