asdf: atom-feed

Hallo,

wie setzt man einen Feed richtig um, also wie gestaltet man ihn richtig?

Ich mein hier so sachen wie,

  • wo steht der neuste Feed?
  • Löscht man alte Feeds, oder lässt man es einfach bis zu hunderten Feeds werden?
  • formatiert man einen Feed mit CSS?

Vielen Dank schonmal

Gruß

  1. hi,

    • wo steht der neuste Feed?
    • Löscht man alte Feeds, oder lässt man es einfach bis zu hunderten Feeds werden?

    Du verwechselst Feed mit einem Item _im_ Feed.

    gruß,
    wahsaga

    --
    /voodoo.css:
    #GeorgeWBush { position:absolute; bottom:-6ft; }
  2. Hallo asdf.

    wie setzt man einen Feed richtig um, also wie gestaltet man ihn richtig?

    Ich mein hier so sachen wie,

    • wo steht der neuste Feed?
    • Löscht man alte Feeds, oder lässt man es einfach bis zu hunderten Feeds werden?

    Im Web ist es Gang und Gebe nur die letzten 10 oder 20 Einträge im Feed verfügbar zu machen. Da die Feeds meist serverseitig dynamisch generiert werden, ist dies kein großer Aufwand.

    Ich persönlich schätze es jedoch sehr, wenn in einem Feed sämtliche Einträge seit dem ersten Feedeintrag enthalten sind, da mir so ein bequem durchsuchbares Archiv zur Verfügung steht und Informationen selbst dann noch verfügbar sind, wenn die jeweiligen Artikel oder gar die Site verschwunden sind.

    • formatiert man einen Feed mit CSS?

    Kann man machen, muss man aber nicht. Nützt auch nicht sonderlich viel, da Feeds in den allermeisten Fällen lediglich abgerufen und nicht im Browser dargestellt werden.

    Einen schönen Dienstag noch.

    Gruß, Mathias

    --
    ie:% fl:| br:< va:) ls:& fo:) rl:( n4:~ ss:) de:] js:| mo:| zu:)
    debian/rules
    1. hi,

      Im Web ist es Gang und Gebe nur die letzten 10 oder 20 Einträge im Feed verfügbar zu machen.

      Aus gutem Grund - schliesslich werden Feeds ja zahlreich und häufig abgefragt.

      Ich persönlich schätze es jedoch sehr, wenn in einem Feed sämtliche Einträge seit dem ersten Feedeintrag enthalten sind,

      Wozu so viel Traffic verursachen?

      Gut, dass man dabei Caching auf HTTP-Ebene vernünftig implementiert, sollte eine selbstverständlichkeit sein - dass alle Clients dabei aber auch korrekt mitspielen, sollte man nicht unbedingt erwarten.
      Und nur weil zu 3.712 Einträgen ein neuer hinzugekommen ist, erneut _alles_ übertragen? Nee, kann's auch nicht sein.

      da mir so ein bequem durchsuchbares Archiv zur Verfügung steht und Informationen selbst dann noch verfügbar sind, wenn die jeweiligen Artikel oder gar die Site verschwunden sind.

      Ist in meinem RSS-Client im Opera auch so der Fall.

      gruß,
      wahsaga

      --
      /voodoo.css:
      #GeorgeWBush { position:absolute; bottom:-6ft; }
      1. Hallo wahsaga.

        da mir so ein bequem durchsuchbares Archiv zur Verfügung steht und Informationen selbst dann noch verfügbar sind, wenn die jeweiligen Artikel oder gar die Site verschwunden sind.

        Ist in meinem RSS-Client im Opera auch so der Fall.

        Ja, aber eben nur für das, was seit dem Abonnieren eines Feeds eingetragen wurde. Alles was vorher enthalten war, fehlt. Und manuell die betreffende Site rückwärts abzugrasen ist mir zu aufwendig.

        Einen schönen Dienstag noch.

        Gruß, Mathias

        --
        ie:% fl:| br:< va:) ls:& fo:) rl:( n4:~ ss:) de:] js:| mo:| zu:)
        debian/rules
        1. hi,

          Ja, aber eben nur für das, was seit dem Abonnieren eines Feeds eingetragen wurde. Alles was vorher enthalten war, fehlt. Und manuell die betreffende Site rückwärts abzugrasen ist mir zu aufwendig.

          Ist zwar ein Argument - aber dann sollte man vielleicht überlegen, ob für solche "Archive" RSS/ATOM das richtige Medium sind.

          Zumindest der "normale" Feed m.E. nicht.
          Man könnte vielleicht einen von-Anbeginn-der-Zeit-einfach-alles-Feed _zustzlich_ anbieten - wobei man sich auch dann wieder Gedanken machen sollte, wie man es ggf. regeln kann, dass dieser nur einmalig, und nicht permanent abgerufen wird.

          gruß,
          wahsaga

          --
          /voodoo.css:
          #GeorgeWBush { position:absolute; bottom:-6ft; }
          1. Hallo,

            naja es muss ja nicht unbeding schon ein Archiv sein und dennoch hätte man gerne alle Beiträge im Feed.

            Nehmen wir mal einen Feed, wie hier im Forum an, ich finde ein Thema, das ich interessant finde und deswegen füge ich den feed zu meinem feedreader hinzu.

            Ist das Thema aber schon voll im Gange fehlen mir in meinem Feed dann möglicherweise nicht im feed vorhandene ältere Beiträge. Später dann, wenn das Thema ins Archiv wandert, ist ein Feed natülcih eher sinnlos für ein Archiv.

            Aber wenn man einfach in jedem Feed alle Beiträge stehen lässt, ist auch ein alter Feed als Archiv zu gebrauchen.

            Gruß

          2. Hallo Ihr zwei,

            Ist zwar ein Argument - aber dann sollte man vielleicht überlegen, ob für solche "Archive" RSS/ATOM das richtige Medium sind.

            Es gibt Leute, die meinen, dass das Atom Ökosystem genau das richtige ist und machen Vorschläge für den [http://girtby.net/offerings/atomexport](träumen von einem Atomstore (Einer Datenbank für Atom-Entry-Dokumente, zugänglich über das Atom Publishing Protocol) und). (Andere träumen gleich von einem Atomstore (Einer Datenbank für Atom-Entry-Dokumente, zugänglich über das Atom Publishing Protocol).

            Man könnte vielleicht einen von-Anbeginn-der-Zeit-einfach-alles-Feed _zustzlich_ anbieten - wobei man sich auch dann wieder Gedanken machen sollte, wie man es ggf. regeln kann, dass dieser nur einmalig, und nicht permanent abgerufen wird.

            Abgesehen von obigen Träumen, bietet das Atom Publishing Protocol genau dafür Mechanismen. Zur Erinnerung: APP bietet eine RESTige API mit Atom als Datenformat für CRUD-Operationen auf Kollektionen. Übersetzt: Wenn man eine Collection lesen will, nutzt man einfach HTTP und macht einen GET auf eine URI und kriegt einen Atom-Feed zurück, der dann einzelne Einträge enthält oder auf diese verweist. Sprich: Beim Lesen gibt es keinen Unterschied zwischen einem normalen Atom-Feed und einem Zugriff mittels APP.

            Nun ist in APP auch gleichzeitig der Zugriff auf nicht vollständige Collections definiert – schließlich will man nicht einen riesigen Feed runterladen. Konsequenterweise gibt es eine Möglichkeit sich aus einem Feed, der nur einen Ausschnitt einer Collection, anhand von Links zu weiteren Ausschnitt-Feeds entlangzuhangeln und somit clientseitig die Collection zu vervollständigen:

            ~~~xml <feed xmlns="http://www.w3.org/2005/Atom">
                <link rel="first"
                      href="http://example.org/entries/go" />
                <link rel="next"
                      href="http://example.org/entries/2" />
                <link rel="last"
                      href="http://example.org/entries/10" />
                ...
              </feed>

              
            Sprich: Bietet der Anbieter des Weblogs diese Möglichkeit an, muss ein Feedreader nur diese Möglichkeit aus dem Atom Publishing Protocol unterstützen, um den Feed mit mehreren (vielen) Requests zu vervollständigen. Das ist nicht so Zukunftsvision, wie man denkt. Google hat sein GData-Protokoll ja auf Atom und APP aufgebaut. Dort wird das schon fleissig [genutzt](http://code.google.com/apis/gdata/reference.html#Queries). Idealerweise kennt ein Feedreader also das Atom Publishing Protocol.  
              
            Da das eventuell etwas zuviel sein mag, wurde diese Funktionalität in einem weiteren [Internet Draft](http://www1.tools.ietf.org/wg/atompub/draft-nottingham-atompub-feed-history-11.txt) kopiert und durch explizite Link-Relationen für Archiv-Feeds erweitert. Technisch gesehen sind die Spezifikationen dafür also durchaus bereit. Es mangelt nur an der Software. ;)  
              
              
            Tim