Hallo Reiner,
Ich konnte es etwas verstehen...
...
Ja, ich will dem nicht direkt widersprechen.
auch schön ;-)
<Problembeschreibung>
Du bekommst, egal wie Du das speicherst, einen wahnsinnigen Overhead. Sprich: Du holst Dir 1000mal die selbe Seite, eben weil URL UND Quelltext sich dauernd ändern. Aus menschlicher Betrachtung (textlicher Inhalt) sind die Seiten aber gleich.
</Problembeschreibung>
Danke! wundervolle Beschreibung, genau sowas hätte 12 Postings vorher von Franki kommen sollen ;-)
Nungut, das ist verständlich und klar. Die Seite ändert sich ja z.B. schon neu, wenn nur eine ganz simple serverseitige kleine Uhr eingebaut ist, die z.B. "Ladezeit 12:15 Uhr 55 Sec." anzeigt oder sowas ;-)
Nun, hier ist die Frage: weswegen handelt das Programm so dumm? ich meine, nachdem es seine Seite gespeichert hat, soll es sich auch speichern, dass es die Seite gespeichert hat, und brauch sie nicht nochmal besuchen.
Ich glaube, mein Kasten umschreibt es am Besten.
jo.
Wget u.ä. Programme können das Problem NICHT lösen!
Seltsam. Denn ich meine, sie sollten ja eine Seite einfach speichern und nicht nochmal schauen, ob sie die aktuelle version, haben, sonst kommen sie in einen Teufelskreis.
Ich habe ein eigenes System geschrieben, daß sowas sehr viel effizienter schafft. Wenn Du magst, kannst Du das mal mit Wget o.ä. machen. Ich mach das mit einer eigenen Methode und wir vergleichen, wieviel Daten (MB) jeder statisch vorliegen hat und wieviel Seiten das effektiv geworden sind.
"Wir"?
WauWau
ss:) zu:) ls:& fo:) de:] va:) ch:° n4:( rl:( br:^ js:| ie:% fl:{ mo:|
E-Mail WauWau: [mailto:der-wauwau@gmx.de]