ich benötige mal Hilfe mit meiner htaccess, ist diese so Anwendbar und erfüllt auch ihren Sinn und Zweck, besonders die deny,allow reihenfolge?
Aktuell habe ich es mit 2 Botnetzen zu tun, die ich so etwas ausbremsen möchte. Das scheint auch teilweise zu funktionieren.
Hallo...
Ich habe ein paar Werte gekürzt, damit es übersichtlicher bleibt.
Um so schlimmer.
Du machst dir da neue ewige Baustellen auf, die ich ich (aus eigener Erfahrung) wieder rückgängig gemacht haben
###########unerwuenschte BOTS
SetEnvIfNoCase User-Agent "^(google|i?explorer?.exe|(MS)?IE( [0-9.]+)?[ ]?(Compatible( Browser)?)?)$" banned
Abgesehen davon dass BrowserMatchNoCase wohl kürzer wäre:
Teste so, dass du Baustellen vermeidest:
Eine UA-Angabe ist Pflicht
BrowserMatch "^$" stop
Manchmal wird vergessen, den Default-Wert zu ersetzen.
BrowserMatch "^User-[Aa}gent$" stop
Die folgenden Regeln erkennen kaputte User-Agents
verboten in Referer RFC 2616
SetEnvIf Referer "#" stop
SetEnvIf REQUEST_URI "#" stop
Das Access-Header-Feld wird manchmal vergessen
SetEnvIfNoCase Access "^$" stop
versuchtes irreguläres Pfad-Traversieren
Resultat clientseitiger unvollständiger relativer URI-Auflösung
SetEnvIf Referer "./" stop
SetEnvIf Request_URI "./" stop
Bots senden meines Wissens nie einen Referer
Reset der Variable robot (falls früher gesetzt)
SetEnvIfNoCase Referer "^.+" !robot
mfg Beat
><o(((°> ><o(((°>
<°)))o>< ><o(((°>o
Der Valigator leibt diese Fische