Hi Detlef
Sollen die studis deine Tutorials wieder hochladen?
Nein, bei Seminaren oder Gruppenarbeit kann es zu uploads kommen. Auch habe ich ein Forum das offlinefähig ist, in dem auch mal was gelöscht wird. Auch kann ich nicht ausschließen das Dozenten die Hälfte ihrer Unterlagen über den Haufen schmeißen udn umbenennen... etc, etc.
Sollen die Inhalte alter Seiten unbedingt vom Rechner der studis verschwinden, könnte mit einer leeren Datei unter dem entsprechendn Namen geupdatet werden.
Ja das wäre tatsächlich ein Workaround!
Wieso? Wenn man online synchonisiert hat sollte die Site konsistent sein (sofern Cache ausreichend groß)
Also bei mir nicht :-(
Meine Versuche, mir Dateien offline verfügbar zu machen kamen zu folgenden Ergebnissen.
Wenn ich "Offline Betrieb" wähle, sind fast alle Seiten, eine halbe Ewigkeit verfügbar, wärend später synchronisierte Offline Seiten ohne neue Synchronisation nicht mehr angezeigt werden.
Verstehe ich richtig, je später eine Synchronisation im IE erfolgt desto kürzer die Vorhaltezeit???
Eine Synchronisation dauert jedesmal so lange, dass ich das Gefühl habe, es werden wirklich _alle_ Seiten komplett neu geladen.
Ja habe ähnliche Erfahrungen gemacht, aber ich tendiere sowieso zu einer JS-Preloading-Lösung. Bei einer Synchronisation mit Linkverfolgung solltest du drauf achten ob eventuell Links aus der Site heraus verfolgt werden.
Kleiner Tip: "wget" ausprobieren, damit kannst du viel besser granulieren was du gerne downloaden möchtest!
Klar da gibts aber keine 3 Updates pro Woche...
3 mal pro woche eine kleine ZIP-Datei laden und Auspacken sehe ich nicht als Problem an.
Naja. Menschen sind faul, jeder notwendige Handschlag halbiert die Zahl der Nutzer. Und wenn jemand 2 Wochen weg war muß er 6 Zips downloaden und in den richtigen Pfad entpacken...
So what wenn der Browser ins Netz will kann man entscheiden ob man a) Online geht, b) synchronisieren will oder c) offline arbeitet.
Genau!
Sage ich:
a) Online gehen - kann ich das Angebot ganz normal online Nutzen (kein extra Update nötig, der Browser holt sich, was er braucht)
b) synchronisieren - nur diese Seite, das macht er sonst online auch
- alles, dann braucht er ewig (siehe oben)
c) offline arbeiten, funktioniert, aber ich bekomme keine Info, ob oder was sich eventuell geändert hat
nun ich meinte das JS-Preloading das nur neue Dateien "synchronisiert" (also aufruft sodaß sie im Cache landen)
und die Leute können konfigurieren welche Daten sie haben wollen
Woher wissen Sie, welche Dateien sie haben wollen, wenn du automatisch aktualisieren willst. Du müsstest ihnen also eine Liste liefern, mit den Hinweisen, welche Dateien hinzugekommen sind, damit sie diese dann zu den Favoriten (mit "Offline verfügbar machen") hinzugefügt werden können bzw. welche aus den Favoriten gelöscht werden sollen.
Nein, nein bei einem JS-preloading sollen die Leute z.B. per Cookie konfigurieren ob sie alle Dateien (PDF,PS,...)
und/oder alle Teilbaueme updaten wollen (z.B kein Forum).
Meine Vorstellung:
- komplettes Online-Angebot,
dort Hinweis auf die Downloadmöglichkeit der zur Zeit aktuellen Version als ZIP (eventuell mehrere (PS, PDF ...)
D'accord!
- Offline-Version bzw. Versionen (PS, PDF ...)
Die Startseite enthält gut sichtbar
- das letzte Aktualisierungsdatum,
- die Information, in welchen Abständen üblicherweise Aktualisierungen erscheinen und
- einen Link auf deine Downloadseite (eventull separat für PS, PDF ...)
Dort befinden sich
der Link zum kompletten Download (für jemanden, der ewig nicht mehr aktualisiert hat)
Kopmplettzips sind unkompliziert zu bewerkstelligen bei den Deltazips sehe ich ne schlechte Kosten/Nutze(n/r) -Relation.
Dies könnte auch noch etwas automatisiert werden, beim Aufruf der Updateseite wird die Version des Nutzers als Parameter mitgeliefert, die dann Serverseitig ausgewertet wird. Dann enthielte die Downloadseite nur die für den Nutzer sinnvollen, Aktualisierung(en).
Das mache ich mit JS, da ich Serverseitig nichts einstellen darf! Ich finds so auch effektiver bei Angeboten die Offline funktionieren sollen primär mit Clientside Technologien zu arbeiten udn Serverside nur zu nutzen wenns unvermeidlich ist.
oder (schlechtere Variante)
Die Downloadseite enthält ein JavaScript, dass die für den jeweiligen Nutzer unsinnigen Links ausblendet.
Und auf Wunsch nur die "sinnvollen" oder alle oder ganz bestimmte preloaded :)
Schau, meine Site schwankt nur zwischen <0,5 (nur HTML) und schlimstenfalls 20 MB (mit allen PDFs und PS-Files), Und viele Leute haben per Default Caches >500 MB!!! Sollte wirklich mal was rausfallen wird halt komplett upgedated. Wer das Angebot wirklich intensiv nutzt installiert sich auch gerne einen zwoten exklusiven Browser damit der Cache clean bleibt.
Cache hat den großen Vorteil das im Gegensatz zum ZIP
absolute Links unverändert funktionieren. Wenn du z.B. von einem lokalen Selfhtml-Download zu einem lokalen Featureartikel-Download navigieren willst, müßtest du manuell den absoluten Link zum teamone-Server umschreiben. Beim Cache wäre das transparent.
Mir kommt da auch grade eine gewagte Idee, wenn ich im Offline betrieb zusätzlich alle Seiten per "JS-Preloading" durchlaufen lasse dürfte die Löschpriorität jedesmal minimiert werden, sodaß die Seiten länger im Cache bleiben. Gleich mal testen ...:-)
(Fragt sich nur wie man per JS erkennt ob man gerade on oder offline ist ??? ... Eventuell über einen vergleich der Uhrzeit mit der Auslieferungszeit der Seite vom Server)
Tschau
Rolf
PS: Und Danke für die gute Diskussion :-)