Reiner: Offline-Version

Beitrag lesen

Hallo WauWau,

Auf Deutsch: Wenn man sich mal die Quelle-Seite anschaut, dann merkt man schnell, dass die Leute, die diese Seite gemacht haben, zwar meinetwegen evv. ein schönes Online-Einkauf-System zusammegebastelt haben, aber von benutzerfreundlichen Domains und sowas haben sie noch nie was gehört. Sowas wie

/blabla/Deutsch/Eur/-/bla/hier-steht-dann-die-eigentliche-adresse

ist wohl eindeutig zu lang und extrem benutzerunfreundlich. Siehe W3C-Empfehlungen (beim validieren von Seiten bei W3C kommt man da über den "Tip des Tages" hin ;).

es ist bei genanntem Problem unwesentlich, wie der URL genau aussieht!

Ich finde, deine Postings klingen hier sehr von oben herab.
Ich glaube, er war nur sauer.

Nunja, man muss nicht gleich so unhöflich werden, nur weil man sauer ist. Sein letztes Posting klang gerade mal so, als ob ich etwas von ihm gewollt hätte und er - als genervter helfender - entsprechend antwortet ^_°

Ich konnte es etwas verstehen...

Er hat das Problem zwar nur unscharf umrissen, aber es ist durchaus richtig, daß man beide Sites nicht so einfach runternudeln kann!
Und das liegt nicht an der Speicherung der Seite bzw. dem URL!

Nun, wie ich bereits gesagt habe, habe ich ein solches Download-Tool noch nie benutzt, also besser gesagt, ich habe so etwas noch nicht gebraucht. Entsprechend habe ich diesbezüglich auch keine Erfahrung damit (...) und - weswegen habe ich eigentlich gepostet? Eigentlich hätte ich das gerade mal lassen können. Wieder mal ein besonders unqualifiziertes Posting (bzw. mehrere) von WauWau ;-)

Ja, ich will dem nicht direkt widersprechen.

Es gibt viel tiefere Probleme und die liegen nicht nur am URL, egal ob nun jemand mod_rewrite nutzt oder nicht...
Tja, wenn du willst, dass man dir ggf. hilft, dann wäre einfach mal eine _Beschreibung_ sinnvoll.
Versuch es mal nachzuvollziehen! Ich denke, Frank hat das schon probiert. Es geht nicht! Jedenfalls nicht mit herkömmlichen Tools.

Ich erkenne immer noch nicht das ganz genaue Problem. Ich würde meinen, wenn diese Art Robot dahergeht, dann speichert es die Seite - meinetwegen unter 0001.htm. Vorher parst es sie und verändert links und sowas. Dann schaut sie sich von dem ersten Link an die nächste Seite an, usw... speichert es halt immer unter xxxx.htm, wobei eben die Links sowie andere Referenzen (bilder, css,...) alle umgeändert werden müssten.

Ich glaube, das ist wirklich nicht das Problem!
<Problembeschreibung>
Du bekommst, egal wie Du das speicherst, einen wahnsinnigen Overhead. Sprich: Du holst Dir 1000mal die selbe Seite, eben weil URL UND Quelltext sich dauernd ändern. Aus menschlicher Betrachtung (textlicher Inhalt) sind die Seiten aber gleich.
</Problembeschreibung>

Problematisch wird das nur, wenn Daten wirklich so flexibel dynamisch serverseitig angelegt sind, dass sie unmöglich mit den gleichen Aufruf-"Parametern" (GET,POST) vergleichbares ausgibt.

Das ist ein anderes Problem!

usw... ...

Oder habe ich das Problem immer noch nicht erkannt? ;-)

Ich glaube, mein Kasten umschreibt es am Besten.
Wget u.ä. Programme können das Problem NICHT lösen!
Probier es mal.
Ich habe ein eigenes System geschrieben, daß sowas sehr viel effizienter schafft. Wenn Du magst, kannst Du das mal mit Wget o.ä. machen. Ich mach das mit einer eigenen Methode und wir vergleichen, wieviel Daten (MB) jeder statisch vorliegen hat und wieviel Seiten das effektiv geworden sind.

Ich wäre gespannt!

Quelle.de wäre eine gute Übung.

Gruß,
Reiner