Torwächter: Nur bestimmter Software Zutritt gewähren (APACHE)

Hallo zusammen,
erstmal zum Titel, ich meine keine Dailer !
Nun aber zu meiner Frage:
Wie kann ich eine .htaccess so konfigurieren, dass sie nur (nach eingabe eines Passwords!) z.B. IE, Ne, OP reinlässt ?
(ich möchte damit verhindern, dass Downloadprogramme die Seite direkt ziehen können).

Vielen Dank im Voraus.

Greetings
Torwächter

  1. Hi,

    Wie kann ich eine .htaccess so konfigurieren, dass sie nur (nach eingabe eines Passwords!) z.B. IE, Ne, OP reinlässt ?
    (ich möchte damit verhindern, dass Downloadprogramme die Seite direkt ziehen können).

    es existiert kein Weg, von irgendeiner Angabe des Client auf die verwendete Software oder gar den "Typ" (Browser, Sitegrabber, Suchmaschine, ...) zu schließen. Der User-Agent-String ist _nicht_ aussagekräftig. Er kann auch beim IE "hidden bei Firewall xyz" heißen, und bei einem Sitegrabber problemlos mit der Standard-Angabe eins Mozilla identisch sein.

    Cheatah

    1. Es muss doch irgenwie möglich sein, nur bestimmte Software zu erlauben :(

      Oder wie kann ich sonst das Saugen von meiner Website (von meinem Server) verhindern ?
      (vielleicht mit KeepAlive Off ??)

      Greetings
      Torwächter

      1. Hi,

        Es muss doch irgenwie möglich sein, nur bestimmte Software zu erlauben :(

        sicher - wenn sie erkannt wird. Aber _das_ ist eben nicht möglich.

        Oder wie kann ich sonst das Saugen von meiner Website (von meinem Server) verhindern ?

        Nein. Programme sind intelligent genug, nach außen hin wie ein User zu wirken.

        Cheatah

        1. verdammt.

          Aber trotzdem Danke.

          Greetings
          Torwächter

          1. Hi Torwächter,

            verdammt.

            Du kannst mit mod_rewrite Anhand der von den Anwenderprogrammen gesendeten Identifikationen verschiedene Dokumente ausgeben.
            Unter
            http://httpd.apache.org/docs/misc/rewriteguide.htmlfindest du bei 'Browser Dependend Content' ein (IMHO schlechtes) Beispiel.

            Wie Cheatah bereits sagt: verlassen kannst du dich auf die Information nicht, ob sie 'oft' genug stimmt musst du für deinen Anwendungsfall selber entscheiden.
            Schau dir mal http://webalizer.teamone.de/selfforum/agent_200206.htm an, das gibt zumindest _einen_ Eindruck der zu erwartenden Fehlerrate.
            Die meisten Web-Saug-Tools werden für den 'User-Agent' String zumindest eine Einstellmöglichkeit haben, aber die muss der Anwender erstmal finden und einstellen. Vielleicht reichen dir (aus der Luft gegriffene) 70% weniger Downloads ja schon um deinen Traffic unterm Limit zu halten.

            Ausserdem sperrst du mit derartigen Tricks auch immer reguläre Besucher aus. (Vielleicht ein Firmen-Proxy, der den User-Agent ganz rausfiltert u.s.w.)

            Gruss,
             Carsten