beatovich: Energiebilanz von Webdesign

hallo

Wie der Titel sagt, bewegt mich ein Thema.

Was aber genau unter Energiebilanz zu verstehen ist, will ich nicht genau festlegen. Man kann aber an folgendes denken!

  • Die elektronische Arbeit, die geleistet werden muss, um eine Information anzubringen.
  • Die intellektuelle Leistung, die geleistet werden muss, um alle Komponenten zu organisieren.
  • Das Aufwandsverhältnis zwischen Form und Inhalt, sprich die Effizienz des Mediums an sich.

Viele möchten den letzten Punkt erreichen, sprich, irgend ein Formular füllen und dann mit zwei drei Definitionen die Publikation erreichen. Um das zu erreichen wird oft ein unsinniger Aufwand betrieben, oder man greift zu fertigen Lösungen wie Wordpress, wobei dann eine steile Lernkurve ansteht.

Mir erscheint das kontraproduktiv, sobald ich bei Energiebilanz auch an den ersten Punkt denke, müsste ich davon Abstand nehmen. Gerade die Verwendung serverseitiger Logiken erscheint mir da sehr fragwürdig.

Dass Webpublishing eigentlich heute ihre Energiebilanz verbessern sollte, darüber hört man nicht viel. Und denoch stellt sich die Frage, welche Techniken könnten sich als zukunftsträchtig erweisen, gerade auch dann, wenn es darum geht, sehr schlanke Inhaltsdokumente erstellen zu können, und in einfacher Weise Dinge wie Layout, Design, Gestaltung dann einer Clientseitigen Logik anzuvertrauen. Es gab (und gibt im Ansatz) techniken, die einem sparsameren Webdesign entgegen kommen, jedoch sind weder w3c noch die whatwg besonders interessiert, das Thema überhaupt als Thema wahrzunehmen.

Wie steht ihr zu diesem Thema, was habt ihr zu berichten? Welche Rezepte würdet ihr Neulingen empfehlen?

--
Neu im Forum! Signaturen kann man ausblenden!
  1. Cooler Gedanke. Ich habe leider keine Antwort, aber noch ein paar Stichwörter.

    Dass Webpublishing eigentlich heute ihre Energiebilanz verbessern sollte, darüber hört man nicht viel.

    Darum bemüht sich auch keiner. Man denke an

    • Suchfunktionen, in die man eintragen kann was man will und oft doch nicht das findet was offensichtlich wäre.
    • Galerien in denen man mit herumfliegenden Bildern und anderen Animationen genervt wird, bevor man endlich ein Bild zu sehen kriegt.
    • Wer Scriptblocker nutzt, fast schon seitenweise Listen von Schrott den man zulassen muss um ein Video zu sehen, das man - siehe oben - wahrscheinlich nicht gesehen haben muss. Daran kann man erkennen welche Server noch alles mit einer popeligen Seite beschäftigt sind.
    • Besuchertracker, Dienste die Daten sammeln, auswerten, weitergeben, speichern.
    • Natürlich Werbung die aufwendig von überall her geladen werden muss und meistens keinen interessiert.
    • Spammails die verschickt und gelöscht werden.
    • Clickbaits aller Art

    Sprich eigentlich alles was die Zeit verzögert, zu der man Smartphone/Tablet/PC abschaltet oder schlafen legt.

    1. hallo

      Dass Webpublishing eigentlich heute ihre Energiebilanz verbessern sollte, darüber hört man nicht viel. Darum bemüht sich auch keiner. Man denke an

      • Suchfunktionen, in die man eintragen kann was man will und oft doch nicht das findet was offensichtlich wäre.

      Ich habe hier https://beat-stoecklin.ch/nav_demo.html eine sinnvollere Suchfunktion realisiert, die primär in der Lage sein soll, eine grosse Linkliste zu filtern.

      Suche kann in der Tat eine unangemessen serverlastige Angelegenheit sein. Doch was sind die alternativen? gut gepflegte Sitemaps?

      • Galerien in denen man mit herumfliegenden Bildern und anderen Animationen genervt wird, bevor man endlich ein Bild zu sehen kriegt.

      Ich erachte CPU Arbeit auf dem Client weniger dramatisch im vergleich zur Arbeit die auf dem Transportweg entsteht. Nervig mag es aber sein, und oft ist es nicht ein effizienter Einsatz für der Zeit, es sei denn, man hat einfach Lust, damit zu spielen.

      • Wer Scriptblocker nutzt, fast schon seitenweise Listen von Schrott den man zulassen muss um ein Video zu sehen, das man - siehe oben - wahrscheinlich nicht gesehen haben muss.

      Wir sehen eine Zunahme der Same-Domain-Policy Realität aus verschiedenen Richtungen. Aber hier berühren sich Energieverschwendung und 3rd-party requests.

      • Besuchertracker, Dienste die Daten sammeln, auswerten, weitergeben, speichern.

      Auch hier gebe ich recht. Die erzeugung von Requests mit zweifelhaften Motiven ist aus vielerlei Hinsicht nicht zu rechtfertigen.

      • Natürlich Werbung die aufwendig von überall her geladen werden muss und meistens keinen interessiert.

      Das gute an uMatrix versus uBlock/adBlock: Requests werden bereits geblockt. Nicht erst der Content gefiltert.

      Sprich eigentlich alles was die Zeit verzögert, zu der man Smartphone/Tablet/PC abschaltet oder schlafen legt.

      Mein Fokus liegt derzeit auf der Frage:

      • kann ich html/js so einsetzen, dass ich mir ein Cms sparen kann?
      • Wie weit kann ich die Inhaltsdokumente auf den reinen Inhalt reduzieren, so dass ich Artikel nach dem KISS-Prinzip schreiben kann, also das beste Inhalts/Form Aufwandsverhältnis erreiche?
      • Wie kann ich möglichst gut vom Browser-Cache profitieren?
      • Wie vermeide ich es, auf dem Server irgend ein Script anwerfen zu müssen?

      Ich denke, ein einfaches Webdesign tendiert auch dazu, ein energie-sparsames Design zu sein. Wenn schon die Struktur der Website mit dem ersten Request auf dem Client gecacht wurde, sollte man diese Struktur wiederverwerten, statt sie jeweils neu auf dem Server zu verlangen. JS gibt mir dazu die Möglichkeit, während der Einsatz einer Serverlogik die Bilanz drastisch verschlechtert.

      Allerdings gibt es Abstriche denn selbstverständlich gehen da für die Indexierung der Site viele Informationen verloren, da Seiten in der Regel nur ohne JS indexiert werden.

      PS: dass wir kein html-import haben oder kein iframe seamless in html5 halte ich für eine Energiesünde.

      --
      Neu im Forum! Signaturen kann man ausblenden!
        • kann ich html/js so einsetzen, dass ich mir ein Cms sparen kann?

        Wenn nur Du die (statischen) Inhalte bearbeitest: Ja. Aber ein CS (Content-System) ohne den Überbau eines CMS (Content-Management-System ist natürlich schneller und damit energiesparend.

        • Wie weit kann ich die Inhaltsdokumente auf den reinen Inhalt reduzieren, so dass ich Artikel nach dem KISS-Prinzip schreiben kann, also das beste Inhalts/Form Aufwandsverhältnis erreiche?

        Ich mach das hier so: Skript(e) und andere Dateien per Filetransport in ein Verzeichnis, dazu zwei Beschreibungsdateien. Serverseitigen Cache (und Metafiles wie Feed und Sitemap) per Klick auf einen Browser-Favorit neu erzeugen. Fertig.

        • Wie kann ich möglichst gut vom Browser-Cache profitieren?

        Dem muss man nur Bescheid sagen.

        • Wie vermeide ich es, auf dem Server irgend ein Script anwerfen zu müssen?

        Äh. Gar nicht. Skripte können auch viel Zeit sparen.

        Ich denke, ein einfaches Webdesign tendiert auch dazu, ein energie-sparsames Design zu sein.

        Das kann so sein.

        ... Struktur wiederverwerten, JS gibt mir dazu die Möglichkeit, während der Einsatz einer Serverlogik die Bilanz drastisch verschlechtert.

        Oh... Das verlangt aber aktiviertes Javascript. Für sowas kann man das machen. Oder für sowas halt. Aber nicht für (quasi-)statische Seiten.

        Allerdings gibt es Abstriche denn selbstverständlich gehen da für die Indexierung der Site viele Informationen verloren, da Seiten in der Regel nur ohne JS indexiert werden.

        Da habe ich schon anderes gehört.

      1. Hallo,

        • kann ich html/js so einsetzen, dass ich mir ein Cms sparen kann?

        warum willst du auf ein CMS generell verzichten? Mein Arbeitgeber setzt eins ein, das stationäre Seiten erzeugt.

        • Beim Aufruf wird dann nur stationäres HTML, CSS und Javascript ausgeliefert.
        • Bei kleinen Änderungen wird die Seite geändert, wie mit einem HTML- oder Text-Editor.
        • Bei strukturellen Änderungen werden alle betroffenen Seiten angepasst.

        Gruß
        Jürgen

        1. hallo

          • kann ich html/js so einsetzen, dass ich mir ein Cms sparen kann?

          warum willst du auf ein CMS generell verzichten? Mein Arbeitgeber setzt eins ein, das stationäre Seiten erzeugt.

          Warum soll ein CMS der default sein? Mit einem CMS hast erst mal nur die Zahl der Abhängigkeiten erhöht.

          • Beim Aufruf wird dann nur stationäres HTML, CSS und Javascript ausgeliefert.
          • Bei kleinen Änderungen wird die Seite geändert, wie mit einem HTML- oder Text-Editor.
          • Bei strukturellen Änderungen werden alle betroffenen Seiten angepasst.

          Und warum brauche ich dazu ein CMS?

          Es reicht doch, in htaccess einen rewrite rule auf die aktuelle JS-Datei zu setzen.

          --
          Neu im Forum! Signaturen kann man ausblenden!
          1. Hallo,

            warum willst du auf ein CMS generell verzichten? Mein Arbeitgeber setzt eins ein, das stationäre Seiten erzeugt.

            Warum soll ein CMS der default sein? Mit einem CMS hast erst mal nur die Zahl der Abhängigkeiten erhöht.

            wer redet hier von „default“?

            • Beim Aufruf wird dann nur stationäres HTML, CSS und Javascript ausgeliefert.
            • Bei kleinen Änderungen wird die Seite geändert, wie mit einem HTML- oder Text-Editor.
            • Bei strukturellen Änderungen werden alle betroffenen Seiten angepasst.

            Und warum brauche ich dazu ein CMS?

            weil unser Webauftritt aus mehreren tausend Seiten besteht, und weil Redakteure nicht zwingend von html und Co Ahnung haben müssen.

            Es reicht doch, in htaccess einen rewrite rule auf die aktuelle JS-Datei zu setzen.

            und welches Problem löse ich damit?

            Durch meine Antwort wollte ich dir nur zeigen, dass ein CMS bei der Auslieferung der Seiten keine zusätzliche Energie verbrauchen muss.

            Gruß
            Jürgen

      2. hi,

        Ich habe hier https://beat-stoecklin.ch/nav_demo.html eine sinnvollere Suchfunktion realisiert, die primär in der Lage sein soll, eine grosse Linkliste zu filtern.

        Baue ich auch gerade: Hier

        Suche kann in der Tat eine unangemessen serverlastige Angelegenheit sein. Doch was sind die alternativen? gut gepflegte Sitemaps?

        Ich habe noch keinen Suchalgorithmus kennengelernt der dem Perl Module Text::Query wirklich überlegen wäre. Selbst die MySQL Volltextsuche nicht. Beispiel

        Ansonsten siehe Rilke, Rainer Maria: Uns überfüllts, wir ordnen. Es zerfällt. Wir ordnen wieder und zerfallen selbst.

        MfG