Peter2: RSS im normalen Windows-Dateinetzwerk betreiben?

Die Frage mag vielleicht etwas schräg klingen, aber als Laie ....

Innerhalb meines Teams arbeiten wir mit normalen Windows-Netzlaufwerken für normale Dateiablagen. Keine Webserver, kein http, kein www - aber dennoch finde ich die Technik der RSS-Feeds für gut und effizient.

Frage:
Kann man RSS-Feeds also in normalen Dateiablagen betreiben?

Danke für klärende Beiträge

Peter2

  1. Hi,

    Frage:
    Kann man RSS-Feeds also in normalen Dateiablagen betreiben?

    Definiere: Einen RSS-Feed „betreiben“.

    MfG ChrisB

    --
    RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
    1. Definiere: Einen RSS-Feed „betreiben“.

      MfG ChrisB

      Ich stelle mir das so vor:

      a) ich nutze einen  RSS-Editor (z.B. http://de.easy-feed-editor.tk/) und erstelle eine XML-Datei
      b) die Datei speichere ich im Netzwerk unter \server\pfad\mein_rss.xml
      c) die Kollegen nutzen einen RSS-Reader (in IE 8 oder Plugin zu FF oder RSSBandit oder ...) und binden meine XML ein
      d) jedesmal wenn ich die XML editiere (erweitere) reagieren die RSS-Reader und zeigen das Neue an

      Kann das so klappen?

      Peter2

      1. Hi,

        d) jedesmal wenn ich die XML editiere (erweitere) reagieren die RSS-Reader und zeigen das Neue an

        Kann das so klappen?

        Nein. RSS ist ein PULL-, kein PUSH-Medium.

        MfG ChrisB

        --
        RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
        1. RSS ist ein PULL-, kein PUSH-Medium.

          das ist mir zwar nicht klar, aber ...

          Nein.

          das ist eindeutig genug

          Danke für die Antwort.

          Peter

          1. Hi,

            RSS ist ein PULL-, kein PUSH-Medium.
            das ist mir zwar nicht klar, aber ...

            RSS funktioniert so, dass die Clients in regelmäßigen Abständen den Feed neu anfordern - was darin dann ggf. „neu“ ist, schauen sie dann selber.

            Nein.
            das ist eindeutig genug

            Das war aber nur explizit auf den letzten Punkt bezogen.

            Ob sich allerdings RSS-Clients finden, die einen Feed von einer Netzwerk-Ressource beziehen können, statt wie „normal“ über HTTP, müsstest du halt mal schauen.

            MfG ChrisB

            --
            RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
            1. Hallo,

              RSS ist ein PULL-, kein PUSH-Medium.
              RSS funktioniert so, dass die Clients in regelmäßigen Abständen den Feed neu anfordern

              ja, das ist auch mein Kenntnisstand. Genau deshalb habe ich den Sinn von RSS-Feeds für Websites (z.B. Foren oder Blogs) noch nicht verstanden. Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.
              Ansonsten ist das ungefähr so, als wenn ich darauf warte, dass mich jemand anruft und sagt: Ich habe dir eben eine e-Mail geschickt.

              Für Feeds, die *nicht* mit einer Website gekoppelt sind, mag die Sinnfrage wieder anders ausgehen.

              Ciao,
               Martin

              --
              F: Was ist schlimmer: Alzheimer oder Parkinson?
              A: Parkinson. Lieber mal ein Bier vergessen zu zahlen, als eins verschütten.
              Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
              1. Hi,

                Genau deshalb habe ich den Sinn von RSS-Feeds für Websites (z.B. Foren oder Blogs) noch nicht verstanden. Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.

                Alles zentral an einer Stelle - im RSS-Client/Feedreader - anstatt zig Webseiten „einzeln absurfen“ zu müssen.

                MfG ChrisB

                --
                RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
                1. Hallo,

                  Genau deshalb habe ich den Sinn von RSS-Feeds für Websites (z.B. Foren oder Blogs) noch nicht verstanden. Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.
                  Alles zentral an einer Stelle - im RSS-Client/Feedreader - anstatt zig Webseiten „einzeln absurfen“ zu müssen.

                  naja, aber das ist doch keine Frage der Technologie, sondern eher eine Frage der Client-Software. Opera bietet zum Beispiel schon den Komfort, Webseiten automatisch in einem bestimmten Zeittakt neu zu laden. Gekoppelt mit der (imaginären) Option, Bilder und andere eingebundene Ressourcen dabei *nicht* neu zu laden, macht das IMHO RSS-Feeds komplett überflüssig.

                  Ob ich nun im RSS-Reader oder im Browser -zig Ressourcen zur Überwachung angebe, kommt aus meiner Sicht auf dasselbe heraus.

                  Gute Nacht,
                   Martin

                  --
                  Heutzutage gilt ein Mann schon dann als Gentleman, wenn er wenigstens die Zigarette aus dem Mund nimmt, bevor er eine Frau küsst.
                    (Barbra Streisand, US-Schauspielerin)
                  Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
                  1. Hi,

                    naja, aber das ist doch keine Frage der Technologie, sondern eher eine Frage der Client-Software. Opera bietet zum Beispiel schon den Komfort, Webseiten automatisch in einem bestimmten Zeittakt neu zu laden.

                    Die muss ich mir dann aber trotzdem noch einzeln anschauen.

                    Ob ich nun im RSS-Reader oder im Browser -zig Ressourcen zur Überwachung angebe, kommt aus meiner Sicht auf dasselbe heraus.

                    Im RSS-Reader kannst du bspw. alle abonnierten Feeds „in einem“ betrachten, wie in deinem Mailclient auch. Und du kannst dir auch die ersten x Zeichen von jedem Item anzeigen lassen, wie im Mailclient auch.
                    Jetzt sag mir mal, wie du das mit normalen Webseiten machst ...

                    MfG ChrisB

                    --
                    RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
              2. Hi!

                ja, das ist auch mein Kenntnisstand. Genau deshalb habe ich den Sinn von RSS-Feeds für Websites (z.B. Foren oder Blogs) noch nicht verstanden. Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.

                Aber dann muß der Client im Extremfall die ganze Website crawlen - in einem Feed bekommt man (idealerweise nach Datum/Zeitstempel sortiert) alle Neuerungen unter einer einzigen HTTP-Ressource. Wenn die Response-Header sinnvoll gesetzt werden, kann man sich das Parsen des Feed-Bodys auch sparen, falls keine Änderungen seit dem letzten "Besuch" erfolgt sind.

                Ansonsten ist das ungefähr so, als wenn ich darauf warte, dass mich jemand anruft und sagt: Ich habe dir eben eine e-Mail geschickt.

                Wie immer ein schönes Bild von Martin:-)

                Für Feeds, die *nicht* mit einer Website gekoppelt sind, mag die Sinnfrage wieder anders ausgehen.

                Das ist nochmal ein anderes Thema.

                off:PP

                --
                "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                1. Hi,

                  Aber dann muß der Client im Extremfall die ganze Website crawlen - in einem Feed bekommt man (idealerweise nach Datum/Zeitstempel sortiert) alle Neuerungen unter einer einzigen HTTP-Ressource. Wenn die Response-Header sinnvoll gesetzt werden, kann man sich das Parsen des Feed-Bodys auch sparen, falls keine Änderungen seit dem letzten "Besuch" erfolgt sind.

                  Nicht nur das Parsen, sondern gleich das „Herunterladen“.
                  (Das ist allerdings dann bei Webseiten auch wieder nicht anders, so lange sie mit den Caching-Mechanismen von HTTP sinnvoll umgehen.)

                  MfG ChrisB

                  --
                  RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
                  1. Hi!

                    Aber dann muß der Client im Extremfall die ganze Website crawlen - in einem Feed bekommt man (idealerweise nach Datum/Zeitstempel sortiert) alle Neuerungen unter einer einzigen HTTP-Ressource. Wenn die Response-Header sinnvoll gesetzt werden, kann man sich das Parsen des Feed-Bodys auch sparen, falls keine Änderungen seit dem letzten "Besuch" erfolgt sind.

                    Nicht nur das Parsen, sondern gleich das „Herunterladen“.

                    Klar: der Client kann HEAD statt GET verwenden, um die Situation zu checken - sprich: die Aktualität der Feed-Ressource zu überprüfen.

                    (Das ist allerdings dann bei Webseiten auch wieder nicht anders, so lange sie mit den Caching-Mechanismen von HTTP sinnvoll umgehen.)

                    Aber: wenn keine Feed/sitemap.xml o.ä. bekannt ist, müssen u.U. alle Webdokumente (geladen und) geparst werden, um zu sehen ob darin neue Ressourcen der Website verlinkt sind. Woher soll der Client das sonst wissen?  Die Anzahl der notwendigen Requests ist auf jeden Fall geringer wenn eine (bekannte) Ressource die Änderungen erfasst.

                    off:PP

                    --
                    "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                    1. Hi,

                      Klar: der Client kann HEAD statt GET verwenden, um die Situation zu checken - sprich: die Aktualität der Feed-Ressource zu überprüfen.

                      Besser gleich ein Conditional GET - dann sind keine zwei Requests erforderlich, wenn die Ressource nicht mehr aktuell sein sollte.

                      (Das ist allerdings dann bei Webseiten auch wieder nicht anders, so lange sie mit den Caching-Mechanismen von HTTP sinnvoll umgehen.)

                      Aber: wenn keine Feed/sitemap.xml o.ä. bekannt ist, müssen u.U. alle Webdokumente (geladen und) geparst werden, um zu sehen ob darin neue Ressourcen der Website verlinkt sind. Woher soll der Client das sonst wissen?

                      Das war nur rein auf's Caching bezogen.

                      Dass ein RSS-Feed in der Hinsicht vorteilhaft ist, bestreite ich ja gar nicht, bzw. unterschreibe es sogar.
                      Martin will nur, glaube ich, auch was dieses Thema angeht wieder „speziell“ sein :-)

                      MfG ChrisB

                      --
                      RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?
                      1. Hi!

                        Klar: der Client kann HEAD statt GET verwenden, um die Situation zu checken - sprich: die Aktualität der Feed-Ressource zu überprüfen.

                        Besser gleich ein Conditional GET - dann sind keine zwei Requests erforderlich, wenn die Ressource nicht mehr aktuell sein sollte.

                        ACK, das hatte ich gar nicht auf dem Radar.

                        (Das ist allerdings dann bei Webseiten auch wieder nicht anders, so lange sie mit den Caching-Mechanismen von HTTP sinnvoll umgehen.)

                        Aber: wenn keine Feed/sitemap.xml o.ä. bekannt ist, müssen u.U. alle Webdokumente (geladen und) geparst werden, um zu sehen ob darin neue Ressourcen der Website verlinkt sind. Woher soll der Client das sonst wissen?

                        Das war nur rein auf's Caching bezogen.

                        Ok.

                        Dass ein RSS-Feed in der Hinsicht vorteilhaft ist, bestreite ich ja gar nicht, bzw. unterschreibe es sogar.
                        Martin will nur, glaube ich, auch was dieses Thema angeht wieder „speziell“ sein :-)

                        Das macht das Forum doch aus und man kann doch gerne mal etwas ausdiskutieren - man schreibt ja oft "aneinander vorbei".

                        off:PP

                        --
                        "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                2. Hallo,

                  Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.
                  Aber dann muß der Client im Extremfall die ganze Website crawlen

                  sehe ich nicht so - wenn ich daran inteessiert bin, eine Änderung oder Ergänzung möglichst zeitnah mitzubekommen, dann ist es normalerweise etwas Spezifisches. Ich kann keinen Sinn darin erkennen, eine ganze Site zu "beobachten" - üblicherweise nur ganz bestimmte Ressourcen/Seiten oder sogar nur Abschnitte davon.

                  So long,
                   Martin

                  --
                  Nein, es ist nicht wahr, dass bei der Post Beamte schneller befördert werden als Pakete.
                  Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
                  1. Hi!

                    Wenn der Client sowieso regelmäßig nachfragen muss, kann er ebensogut auch direkt die zugehörige Website abfragen.
                    Aber dann muß der Client im Extremfall die ganze Website crawlen

                    sehe ich nicht so - wenn ich daran inteessiert bin, eine Änderung oder Ergänzung möglichst zeitnah mitzubekommen, dann ist es normalerweise etwas Spezifisches. Ich kann keinen Sinn darin erkennen, eine ganze Site zu "beobachten" - üblicherweise nur ganz bestimmte Ressourcen/Seiten oder sogar nur Abschnitte davon.

                    Woher weißt Du dann, dass neue Ressorcen hinzugefügt wurden, welche Dich interessieren könnten?

                    off:PP

                    --
                    "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                    1. Hallo,

                      Ich kann keinen Sinn darin erkennen, eine ganze Site zu "beobachten" - üblicherweise nur ganz bestimmte Ressourcen/Seiten oder sogar nur Abschnitte davon.
                      Woher weißt Du dann, dass neue Ressorcen hinzugefügt wurden, welche Dich interessieren könnten?

                      ganz einfach: Solange ich nichts davon weiß, interessieren sie mich auch noch nicht.
                      Ich könnte es auch anders sagen: Wenn etwas völlig Neues dazukommt, genügt es doch, wenn ich das irgendwann zufällig mitbekomme, wenn ich die Site mal wieder besuche und ihr etwas Aufmerksamkeit widme. Vielleicht habe ich auch nette Mitmenschen, die mich darauf hinweisen: "Du wolltest doch neulich etwas über $subject wissen - auf $website gibt's da gerade was Neues!"

                      Wenn ich den Gedanken weiter verfolgen würde, müsste ich ja permanent das ganze Internet nach neuen Sites/Ressourcen scannen, die mich möglicherweise interessieren könnten.

                      So long,
                       Martin

                      --
                      Wer barfuß geht, dem kann man nicht die Schuld in die Schuhe schieben.
                      Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
                      1. Hi!

                        Ich kann keinen Sinn darin erkennen, eine ganze Site zu "beobachten" - üblicherweise nur ganz bestimmte Ressourcen/Seiten oder sogar nur Abschnitte davon.
                        Woher weißt Du dann, dass neue Ressorcen hinzugefügt wurden, welche Dich interessieren könnten?

                        ganz einfach: Solange ich nichts davon weiß, interessieren sie mich auch noch nicht.

                        Ok, das dies u.U. keine typische Haltung ist, kannnst Du aber akzeptieren, oder?  Du liest wahrscheinlich auch keine Weblogs, oder hörst Netcasts und bist froh, wenn ein Feed Dich über neue Artikel und "Sendungen" informiert, nehme ich an.

                        Ich könnte es auch anders sagen: Wenn etwas völlig Neues dazukommt, genügt es doch, wenn ich das irgendwann zufällig mitbekomme, wenn ich die Site mal wieder besuche und ihr etwas Aufmerksamkeit widme. Vielleicht habe ich auch nette Mitmenschen, die mich darauf hinweisen: "Du wolltest doch neulich etwas über $subject wissen - auf $website gibt's da gerade was Neues!"

                        Für eine "klassische" Site mit wenig Aktualisierungen ist so ein Feed vielleicht auch Overkill, bei Angeboten mit mehreren neuen Publizierungen pro TAg oder sogar Stunde sieht das doch schon anders aus.

                        Wenn ich den Gedanken weiter verfolgen würde, müsste ich ja permanent das ganze Internet nach neuen Sites/Ressourcen scannen, die mich möglicherweise interessieren könnten.

                        Das war er wieder: der Martin;-) Nee: für sowat gibet $suchmaschine, die man bei Bedarf anwirft.

                        off:PP

                        --
                        "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                        1. Hallo,

                          Solange ich nichts davon weiß, interessieren sie mich auch noch nicht.
                          Ok, das dies u.U. keine typische Haltung ist, kannnst Du aber akzeptieren, oder?

                          kann ich akzeptieren, kein Problem. Ich glaube aber gar nicht, dass das stimmt. Im Gegenteil, im wirklichen Leben ist das sogar eine sehr typische Haltung: Was ich nicht weiß, macht mich nicht heiß.
                          Erst wenn ich weiß, dass meine Lieblingsband demnächst ein Konzert in der Nähe veranstaltet, kann ich mich überhaupt für Details zu diesem Auftritt interessieren - vorher nicht, solange ich davon noch nichts weiß.
                          Oder zurück im Web: Wenn ich weiß, dass es eine Site mit für mich interessanten Informationen gibt, setze ich ein Bookmark. Ob sich die angebotenen Informationen ändern, muss ich in der Zwischenzeit nicht wissen - das sehe ich, wenn ich diese Information mal wieder brauche und die gespeicherte URL abrufe.

                          Du liest wahrscheinlich auch keine Weblogs, oder hörst Netcasts ...

                          Richtig.

                          und bist froh, wenn ein Feed Dich über neue Artikel und "Sendungen" informiert, nehme ich an.

                          Im Gegenteil - ich lehne Feeds ab, weil ich eben nicht "automatisch" Informationen zugespielt bekommen will; ebensowenig, wie ich Newsletter abonnieren würde. Information, die auf mich einstürmt, ohne dass ich konkret danach suche oder frage, empfinde ich in den meisten Fällen eher als lästig (Ausnahmen bestätigen die Regel).
                          Ich lege auch keinen Wert auf ein in die Breite gehendes Informationsangebot - ich will punktuell sehr in die Details, in die Tiefe gehen.

                          Ich könnte es auch anders sagen: Wenn etwas völlig Neues dazukommt, genügt es doch, wenn ich das irgendwann zufällig mitbekomme, wenn ich die Site mal wieder besuche und ihr etwas Aufmerksamkeit widme. Vielleicht habe ich auch nette Mitmenschen, die mich darauf hinweisen: "Du wolltest doch neulich etwas über $subject wissen - auf $website gibt's da gerade was Neues!"
                          Für eine "klassische" Site mit wenig Aktualisierungen ist so ein Feed vielleicht auch Overkill, bei Angeboten mit mehreren neuen Publizierungen pro TAg oder sogar Stunde sieht das doch schon anders aus.

                          Plattformen mit ständig wechselndem Informationsangebot gehören auch nicht zu meinen typischen Zielen; ich mag es sowieso nicht, wenn Dinge sich ständig verändern. Ich habe es lieber, wenn ich eine Information auch nach Wochen oder Monaten noch da wiederfinde, wo ich sie einmal gefunden habe. Wenn ich dabei zufällig noch etwas neu hinzugekommenes sehe, ist das sicher okay, aber nicht der Sinn der Aktion.

                          Wenn ich den Gedanken weiter verfolgen würde, müsste ich ja permanent das ganze Internet nach neuen Sites/Ressourcen scannen, die mich möglicherweise interessieren könnten.
                          Das war er wieder: der Martin;-) Nee: für sowat gibet $suchmaschine, die man bei Bedarf anwirft.

                          Eben. Wenn ich gezielt nach etwas Bestimmtem suche, bieten sich etwa Suchmaschinen an.

                          Fazit: Wer meint, dass ein Feed eine tolle Sache ist - bitte, gern. Für mich sehe ich aber keinen Bedarf. Und diese Diskussion bestärkt mich in dieser Ansicht.

                          Ciao,
                           Martin

                          --
                          Der Klügere gibt solange nach, bis er der Dumme ist.
                          Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
                          1. Hi Martin!

                            Ich kürze mal ab:

                            Fazit: Wer meint, dass ein Feed eine tolle Sache ist - bitte, gern. Für mich sehe ich aber keinen Bedarf. Und diese Diskussion bestärkt mich in dieser Ansicht.

                            Das ist doch gut so: jedem das seine! Ich z.B. mag durchaus Feeds, aber niemand zwingt mich die Feeds zu nutzen/lesen.
                            Da Du sich schnell ändernde Dinge nicht magst, brauche ich wohl nicht zu fragen, ob Du aktiv oder passiv twitterst;-)

                            off:PP

                            --
                            "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
                            1. Moin,

                              Fazit: Wer meint, dass ein Feed eine tolle Sache ist - bitte, gern. Für mich sehe ich aber keinen Bedarf. Und diese Diskussion bestärkt mich in dieser Ansicht.
                              Das ist doch gut so: jedem das seine!

                              eben, chaqu'un à son goût. :-)

                              Da Du sich schnell ändernde Dinge nicht magst, brauche ich wohl nicht zu fragen, ob Du aktiv oder passiv twitterst;-)

                              Da du es indirekt doch getan hast: Nein, weder/noch. Aber das hat wieder andere Gründe - ich mag diese "Social Networks" generell nicht, egal ob twitter, facebook, oder die angeblich etwas seriösere Version xing. Foren als Treffpunkt für Kommunikation (meist irgendwie themenzentriert) finde ich okay, aber das war's dann auch.

                              Schönes Wochenende,
                               Martin

                              --
                              Männer sind ungerecht: Sie sehen immer nur den Baum, den eine Frau mit dem Auto gerammt hat. Aber die vielen Bäume, die sie nicht einmal gestreift hat, sehen sie nicht.
                              Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
                              1. Hi!

                                Fazit: Wer meint, dass ein Feed eine tolle Sache ist - bitte, gern. Für mich sehe ich aber keinen Bedarf. Und diese Diskussion bestärkt mich in dieser Ansicht.
                                Das ist doch gut so: jedem das seine!

                                eben, chaqu'un à son goût. :-)

                                Eben. So soll es sein.

                                Schönes Wochenende,

                                Dir auch ein schönes Wochenende!
                                Wie gut meins wird, sehe ich heute Abend in GE....

                                off:PP

                                --
                                "You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)
      2. Ich stelle mir das so vor:

        a) ich nutze einen  RSS-Editor (z.B. http://de.easy-feed-editor.tk/) und erstelle eine XML-Datei
        b) die Datei speichere ich im Netzwerk unter \server\pfad\mein_rss.xml
        c) die Kollegen nutzen einen RSS-Reader (in IE 8 oder Plugin zu FF oder RSSBandit oder ...) und binden meine XML ein
        d) jedesmal wenn ich die XML editiere (erweitere) reagieren die RSS-Reader und zeigen das Neue an

        Kann das so klappen?

        Peter2

        Einschub eines Detailpunktes:
        AutoCAD verwendet eine RSS-Funktion, die doch auf lokale Feeds reagiert. Die vorher genannten vollwertigen Reader konnte ich noch nicht dazu motivieren.

        Peter2