gudn tach!
Danke für den Link. Ich habe jetzt --execute=robots=off sowie --wait=10 hinzugefügt, bekomme aber immer noch 403. Auch wenn ich das robots=off in Anführungszeichen setze, klappt es nicht :-(
Was mache ich falsch?
also bei mir klappte
wget -e robots=off -Uschweinekotze -kprl 2 -w 2 -Dpkjs.de http://pkjs.de/bahn/Kursbuch1944/Kursbuchtitel.html
der 403er wird vermutlich via htaccess (verbot von wget als UA) erzeugt und muss deswegen separat mit -Uirgendwas umgangen werden.
prost
seth