Andreas Korthaus: zum Loggen eines Webseiten-Besuches

Hallo!

Ein Berkannter von mir sucht eine Software die er schonmal live gesehen hat, aber nicht weiß was es genau ist und wie es heißt. Keine guten Vorausetzungen ;-)
Mir jedenfalls istr so eine Softwre nicht bekannt, aber vielleicht einem von Euch:
Die Software nimmt einen Webseiten-Besuch so auf wie man ihn durchgeführt hat, halt so eien Art Film, nur das am Ende die gesamten HTML-Dateien irgebndwie gespeichert werden. Ich dachte erst an sowas wie wget, aber das kann ja vor allem bei einer Dynamsichen Seiten nicht so einfach sein, und vor allem ist diese Software nicht selbstständig, sondern an die Aktionen des Browsers gekoppelt. Also vermutlich so eine Art Sniffer, nur das es hier speziell um HTTP/HTML geht, und diese Daten hinterher in vernünftiger Form zur Verfügung stehen, halt so ähnlich wie bei wget. Ich habe es selbst nicht gesehen als kann ich nicht viel mehr sagen, aber wenn jemand so eine Software kennt würde ich mich über einen Link oder Namen freuen!  Ach ja, die Software lief unter Windows, ganz normal neben dem Browser im Hintergrund.

Viele Grüße
Andreas

  1. kommt darauf an in welche Richtungen man denkt

    a) Ab IE5.5 kann man einzeln Webseiten als Wbarchiv abspeichern (*.mht) , dabei werden auch Bilder,etc. mitabgespeichert.

    b) die Seiten als ganzer zu saugen hast du schon angesprochen

    c) so wie es klingt mit FILM und Hintergrund (=unbemerkt) fallen mir hier nur Spy-Programme ein, die generell den Computer überwachen und speichern. Das fängt beim einfachen Macrorecorder an und hört nach oben hin niergends auf.

    FRAGE: WAS WILL ER MACHEN ? WAS BEZWECKT ER DAMIT ?

    1. kommt darauf an in welche Richtungen man denkt

      a) Ab IE5.5 kann man einzeln Webseiten als Wbarchiv abspeichern (*.mht) , dabei werden auch Bilder,etc. mitabgespeichert.

      Das bringt ja auch nicht viel. Was ist da groß anders als "webseite speichern"? Da habe ich auch alle Dateien, muß da nur jede Seite einzelnd speichern!

      b) die Seiten als ganzer zu saugen hast du schon angesprochen

      Das Problem ist das es eine dynamische Seite ist. Und die _kann_ man nicht komplett saugen. Man kann auch kein eigenes Scipt schreiben, da ich ja nicht jede Eventualität und jeden Parameter kenne. Es soll genau ein kompletzter Besuch mit allen Aktionen nachvolziebar aufgenommen werden.

      c) so wie es klingt mit FILM und Hintergrund (=unbemerkt) fallen mir hier nur Spy-Programme ein, die generell den Computer überwachen und speichern. Das fängt beim einfachen Macrorecorder an und hört nach oben hin niergends auf.

      Aber wie funtktionieren Spy-Programme? Ich habe da auch an Ethernal gedacht, aber das Problem hierbei, es werden nur die einzelnen TCP/IP-Pakete gespeichert, daraus muß ich erstmal "echte" html-Dateien machen, und das ist doch recht umständlich. Bei Spy-Programmen wird das zwar etwas anders sein, aber die speichern doch keine kompletten Webseiten, oder? Dann könnte man ja gar nicht mehr "vernünftig spyen", die Archive würden vermutlich sehr schnell überlaufen.

      FRAGE: WAS WILL ER MACHEN ? WAS BEZWECKT ER DAMIT ?

      Er will einen Teilbereich einer Firmeneigenen Software als HTML-Dateien haben.

      Viele Grüße
      Andreas

      1. Bei den Spyprogrammen kann ich nicht helfen, da kein persönlicher Bedarf. Weiß nur das sie Rekorderfunktionen haben.

        Der Unterschied zwischen Webarchiv u. Webseiten speichern ist, dass das Webarchiv auch Inhalte korrekt speichert.

        Wenn man was haben will, muss man sich schon etwas anstrengen.

        Als weitere Möglichkeit, wenn er es nur 'haben' will wäre mit Snagit Text oder Bildkopien anzufertigen.

        Da er es konfortabel haben will, muss jemand anderer weiter helfen.