wget
Blank
- cgi
Hallo,
-----------
#!/bin/sh
echo Content-type: text/plain
echo
echo Hallo
wget http://www.google.de
----------
bringt mir nur ein Hallo und sonst nix auch wenn ich echo Hallo weg lasse; ich hätte es gerne so das ich beim aufrufen meines cgi-scriptes sich die google seite öffnet.
wget ist doch dafür da, oder nicht? was gibt es noch in der richtung?
MfG Blank
Hi,
bringt mir nur ein Hallo und sonst nix auch wenn ich echo Hallo weg lasse; ich hätte es gerne so das ich beim aufrufen meines cgi-scriptes sich die google seite öffnet.
Du möchtest in wget --help
die Funktionsweise dieses Tools nachschlagen und die dort genannten Optionen benutzen. Ich schätze mal, dass ein Blick ins Error-Log Deines Servers aufschlussreich sein dürfte.
Cheatah
Hi,
Welche Option von diesen soll ich benutzen?
Startup:
-V, --version display the version of Wget and exit.
-h, --help print this help.
-b, --background go to background after startup.
-e, --execute=COMMAND execute a `.wgetrc'-style command.
Logging and input file:
-o, --output-file=FILE log messages to FILE.
-a, --append-output=FILE append messages to FILE.
-d, --debug print debug output.
-q, --quiet quiet (no output).
-v, --verbose be verbose (this is the default).
-nv, --non-verbose turn off verboseness, without being quiet.
-i, --input-file=FILE download URLs found in FILE.
-F, --force-html treat input file as HTML.
-B, --base=URL prepends URL to relative links in -F -i file.
--sslcertfile=FILE optional client certificate.
--sslcertkey=KEYFILE optional keyfile for this certificate.
--egd-file=FILE file name of the EGD socket.
Download:
--bind-address=ADDRESS bind to ADDRESS (hostname or IP) on local host.
-t, --tries=NUMBER set number of retries to NUMBER (0 unlimits).
-O --output-document=FILE write documents to FILE.
-nc, --no-clobber don't clobber existing files or use .# suffixes.
-c, --continue resume getting a partially-downloaded file.
--progress=TYPE select progress gauge type.
-N, --timestamping don't re-retrieve files unless newer than local.
-S, --server-response print server response.
--spider don't download anything.
-T, --timeout=SECONDS set the read timeout to SECONDS.
-w, --wait=SECONDS wait SECONDS between retrievals.
--waitretry=SECONDS wait 1...SECONDS between retries of a retrieval.
--random-wait wait from 0...2*WAIT secs between retrievals.
-Y, --proxy=on/off turn proxy on or off.
-Q, --quota=NUMBER set retrieval quota to NUMBER.
--limit-rate=RATE limit download rate to RATE.
--inet use IP version 4 socket.
--inet6 use IP version 6 socket.
Directories:
-nd --no-directories don't create directories.
-x, --force-directories force creation of directories.
-nH, --no-host-directories don't create host directories.
-P, --directory-prefix=PREFIX save files to PREFIX/...
--cut-dirs=NUMBER ignore NUMBER remote directory components.
HTTP options:
--http-user=USER set http user to USER.
--http-passwd=PASS set http password to PASS.
-C, --cache=on/off (dis)allow server-cached data (normally allowed).
-E, --html-extension save all text/html documents with .html extension.
--ignore-length ignore Content-Length' header field. --header=STRING insert STRING among the headers. --proxy-user=USER set USER as proxy username. --proxy-passwd=PASS set PASS as proxy password. --referer=URL include
Referer: URL' header in HTTP request.
-s, --save-headers save the HTTP headers to file.
-U, --user-agent=AGENT identify as AGENT instead of Wget/VERSION.
--no-http-keep-alive disable HTTP keep-alive (persistent connections).
--cookies=off don't use cookies.
--load-cookies=FILE load cookies from FILE before session.
--save-cookies=FILE save cookies to FILE after session.
FTP options:
-nr, --dont-remove-listing don't remove `.listing' files.
-g, --glob=on/off turn file name globbing on or off.
--passive-ftp use the "passive" transfer mode.
--retr-symlinks when recursing, get linked-to files (not dirs).
Recursive retrieval:
-r, --recursive recursive web-suck -- use with care!
-l, --level=NUMBER maximum recursion depth (inf or 0 for infinite).
--delete-after delete files locally after downloading them.
-k, --convert-links convert non-relative links to relative.
-K, --backup-converted before converting file X, back up as X.orig.
-m, --mirror shortcut option equivalent to -r -N -l inf -nr.
-p, --page-requisites get all images, etc. needed to display HTML page.
Recursive accept/reject:
-A, --accept=LIST comma-separated list of accepted extensions.
-R, --reject=LIST comma-separated list of rejected extensions.
-D, --domains=LIST comma-separated list of accepted domains.
--exclude-domains=LIST comma-separated list of rejected domains.
--follow-ftp follow FTP links from HTML documents.
--follow-tags=LIST comma-separated list of followed HTML tags.
-G, --ignore-tags=LIST comma-separated list of ignored HTML tags.
-H, --span-hosts go to foreign hosts when recursive.
-L, --relative follow relative links only.
-I, --include-directories=LIST list of allowed directories.
-X, --exclude-directories=LIST list of excluded directories.
-np, --no-parent don't ascend to the parent directory.
sorry bin anfänger
MfG Blank
Hi,
Welche Option von diesen soll ich benutzen?
es ist unnötig, die komplette Hilfe zu kopieren. Aber schön, dass Du sie gefunden hast ;-)
sorry bin anfänger
Ein Grund mehr, es Dir selbst zu überlassen, Dich mit dieser Software vertraut zu machen. Die Grundlage jeder Entwicklung ist es, Dokumentationen richtig lesen zu können.
Cheatah
hi,
ich wills doch garnicht lernen, ich brauch nur wget, glaube ich und dann ist der käse gegessen!
MfG Blank
Hi,
ich wills doch garnicht lernen,
dann bist Du hier falsch.
Cheatah
Hajo,
ich wills doch garnicht lernen,
dann bist Du hier falsch.
nun lass den doch nicht so schmoren hier ;-)
Btw., der Schalter -O- steht explizit nicht in der Hilfe.
Viele Grüße, Rolf
Moin!
[1] Du verwendest die Option -O (großes o) und schreibst die Daten in ein File, am besten /tmp/wget_out
[2] Du unterdrückst Ausgaben und Fehler, indem Du diese nach NUL oder in eine Datei umleitest.
[3] Du gibts die Datei mit cat aus.
Sollte etwas davon nicht gehen, so überlege selbst und frage dann wieder. Du kannst auch auf Fehler prüfen, indem Du: /tmp/wget_errors und /tmp/wget_output prüfst.
wget -O http://www.google.de -O /tmp/wget_file 1> /tmp/wget_output 2> /tmp/wget_errors
cat /tmp/wget_file
rm /tmp/wget_file
rm /tmp/wget_output
rm /tmp/wget_errors
Natürlich kannst Du auch Meldungen und Fehlermeldungen des rm nach NUL (oder /dev/nul) umleiten.
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®
Hi Cheatah,
Du möchtest in
wget --help
die Funktionsweise dieses Tools nachschlagen und die dort genannten Optionen benutzen. Ich schätze mal, dass ein Blick ins Error-Log Deines Servers aufschlussreich sein dürfte.
Kannst du die Leute mal selbst entscheiden lassen, was sie möchten und ihnen deine Lösungsansätze stattdessen als Vorschläge unterbreiten?
Gruß,
Peetah
Hallo,
wget ist doch dafür da, oder nicht? was gibt es noch in der richtung?
Damit wget die seite auf die Console bringt use
wget -O- http://i-netlab.de
Erwin
Hallo nochmal,
Ich habs geschafft ne mail zu senden:
#!/bin/sh
echo Content-type: text/plain
echo
wget -q --spider http://www.domain.de/sendmail.php
exit
aber ich wollte das nur als test nehmen. nun wo ich sendmail.php in script.php umbenannt habe funktioniert garnix mehr. dort setze ich ein sehr kompliziertes script an das pop3 funktionen ausführt.
kann das ein grund dafür sein das es nicht geht?
MfG Blank