ralphi: Bilder aus dyn. Webseite

Hi Leute,

ich möchte die Bild-URL von einer Webseite haben, die die Bilder per Ajax nachlädt (Nachrichtenseite). Das ganze von der Linuxshell oder/und php per cron laden.

Es gibt viel im Netz dazu, nur keine einfache Lösung.

wget , file_get_contents(), curl etc. funktioniert natürlich nicht.

  • Mit Firefox(Icewisel) und option zum speichern fehlt mir der xserver
  • wkhtmltopdf url file.pdf gibt mir zwar ein pdf mit bildern - bekomm sie aber aus dem pdf nicht raus.
  • Die meisten comandline-Browser haben kein JS
  • Bei chrome V8 für php find ich keine passende Anleitung.

Wer kann mir helfen?

--
Viele Grüße aus LA ralphi
  1. Hallo,

    ich möchte die Bild-URL von einer Webseite haben, die die Bilder per Ajax nachlädt (Nachrichtenseite).

    das klingt ein bisschen so, als wäre das nicht ganz hasenrein. Aber das ist deine Sache.

    Das ganze von der Linuxshell oder/und php per cron laden.

    wget , file_get_contents(), curl etc. funktioniert natürlich nicht.

    Wieso nicht? - Natürlich erst dann, wenn du die echten Bild-URLs hast.

    • Mit Firefox(Icewisel) und option zum speichern fehlt mir der xserver
    • wkhtmltopdf url file.pdf gibt mir zwar ein pdf mit bildern - bekomm sie aber aus dem pdf nicht raus.
    • Die meisten comandline-Browser haben kein JS
    • Bei chrome V8 für php find ich keine passende Anleitung.

    Wer kann mir helfen?

    Vielleicht Wireshark. Notfalls auf einem weiteren Rechner, der am gleichen Ethernet-Segment passiv mitlauscht.

    So long,
     Martin

    1. Hi Martin,

      das klingt ein bisschen so, als wäre das nicht ganz hasenrein. Aber das ist deine Sache.

      Des ist nur für den privaten Gebrauch. Bildschirmschoner meiner Heizungssteuerung (auf Tablet im WZ und Bad)

      wget , file_get_contents(), curl etc. funktioniert natürlich nicht.

      Wieso nicht? - Natürlich erst dann, wenn du die echten Bild-URLs hast.

      Nun - das Verzeichnis hab ich ja zB. http://images.scribblelive.com/2015/9/15/c44a760a-1c7a-4786-8c91-a92affb5a325.jpg (t-online). Die Bilder sind auch public. Ich muss nur den Namen wissen und die werden nachgeladen.

      Vielleicht Wireshark. Notfalls auf einem weiteren Rechner, der am gleichen Ethernet-Segment passiv mitlauscht.

      aufwendig, bzw. ich kenn mich nicht mit dem Fisch aus.

      --
      Viele Grüße aus LA ralphi
      1. Hi,

        Vielleicht Wireshark. Notfalls auf einem weiteren Rechner, der am gleichen Ethernet-Segment passiv mitlauscht. aufwendig, bzw. ich kenn mich nicht mit dem Fisch aus.

        es könnte sich lohnen, diese Wissenslücke aufzufüllen. Zugegeben, der Kabeljau ist für den Einsteiger eine Herausforderung, aber so kompliziert nun auch wieder nicht.

        Wichtig ist nur, dass man einen einfachen Hub verwendet und keinen Switch, wenn man am verkabelten Ethernet passiv lauschen will. Bei WLAN entfällt dieser Aspekt.

        Ciao,
         Martin

  2. schick mal URL von Seite wo die Bilder nachgeladen werden:

    Und dann gucken wir mal, was das Javascript da macht.

    MfG

    1. Hi,

      schick mal URL von Seite wo die Bilder nachgeladen werden:

      http://www.t-online.de/nachrichten/id_75024046/karikaturen-blog-ein-visuelles-wort-zum-sonntag.html

      --
      Viele Grüße aus LA ralphi
      1. Hi,

        schick mal URL von Seite wo die Bilder nachgeladen werden:

        http://www.t-online.de/nachrichten/id_75024046/karikaturen-blog-ein-visuelles-wort-zum-sonntag.html

        Ahh die Kartongs auf der li. Seite, ok, ich bin dran, danke. Noch ne Frage dazu:

        sind die Bild URLs like http://images.scribblelive.com/2015/9/18/0c4ee31a-0098-4edd-aae7-73df249397da.jpg temporär oder eher permanent? Wenn Letzteres, überlege ich, neben dem Bild Download eine lokale Repository anzulegen (mit weiteren Informationen zum Bild URL).

        MfG

        --
        PS: Das Wort Bild finde ich doof
        1. Hi,

          sind die Bild URLs like http://images.scribblelive.com/2015/9/18/0c4ee31a-0098-4edd-aae7-73df249397da.jpg temporär oder eher permanent? Wenn Letzteres, überlege ich, neben dem Bild Download eine lokale Repository anzulegen (mit weiteren Informationen zum Bild URL).

          Ich tippe auf permanent. Zumindest seit 5 Tagen.

          --
          Viele Grüße aus LA ralphi
          1. Ein guter Anfang:

            use strict;
            use warnings;
            use LWP::Simple;
            use JSON;
            use Data::Dumper;
            
            # Beachte Parameter Since
            my $URL = "http://apiv1.scribblelive.com/event/1065698/all/?Token=Q872zTYJ&format=json&Since=2015/9/18";
            
            # JSON decodieren
            my $struct = decode_json(get $URL);
            
            # alle Schlüssel wo images enthalten sind
            my @arrays = ( @{$struct->{Posts}},  @{$struct->{Deletes}},  @{$struct->{Edits}} );
            
            # Filter auf Datenstruktur anwenden
            my @media = grep{ defined } map { $_->[0]{Url} }  map{ $_->{Media} }  @arrays;
            
            # hier sind nur noch die Image URLs
            print Dumper @media, $struct->{Meta}{LastImage};
            
            
            Das gibt aus
            $VAR1 = 'http://images.scribblelive.com/2015/9/17/8a6a6a71-ef53-48fe-b2a2-29d16a273f95.jpg';
            $VAR2 = 'http://images.scribblelive.com/2015/9/17/54e0d28b-cb76-4106-b3f0-b6cc5ff29c7a.jpg';
            $VAR3 = 'http://images.scribblelive.com/2015/9/17/14602bfa-171c-4f96-81c7-b3b920675b38.jpg';
            $VAR4 = 'http://images.scribblelive.com/2015/9/18/20ba73cf-7d2d-4455-af69-0f3d054efde1.jpg';
            $VAR5 = 'http://images.scribblelive.com/2015/9/18/0d3d9d89-9b92-43c2-8df9-55e157c4c02d.jpg';
            $VAR6 = 'http://images.scribblelive.com/2015/9/18/cb7794d0-c46e-4a28-9232-0e5c9bce9468.jpg';
            $VAR7 = 'http://images.scribblelive.com/2015/9/18/7d3f2920-bafa-4ec7-ab75-e856f8c1fd97.jpg';
            $VAR8 = 'http://images.scribblelive.com/2015/9/18/0c4ee31a-0098-4edd-aae7-73df249397da.jpg';
            $VAR9 = 'http://images.scribblelive.com/2015/9/18/0d3d9d89-9b92-43c2-8df9-55e157c4c02d.jpg';
            
            

            Zum Ermitteln der Image URLs. Ob der Parameter Token immer derselbe ist, KA. Anhand der Liste kannst Du dann das Download organisieren ;)

            1. Hi hingucker,

              # Beachte Parameter Since
              my $URL = "http://apiv1.scribblelive.com/event/1065698/all/?Token=Q872zTYJ&format=json&Since=2015/9/18";
              

              Cool - Wie bist du den auf den Link gekommen? :-)

              Und was hat es mit dem Token=Q872zTYJ auf sich?

              --
              Viele Grüße aus LA ralphi
              1. Hi hingucker,

                # Beachte Parameter Since
                my $URL = "http://apiv1.scribblelive.com/event/1065698/all/?Token=Q872zTYJ&format=json&Since=2015/9/18";
                

                Cool - Wie bist du den auf den Link gekommen? :-)

                Hingeguckt: FF => Console => Netzwerk

                und dann hunderte von Requests annalüsiert... ne, ich hab nach scribblelive.com gefiltert, also die Domähne, wo die Kartonagen liegen ;)

                Und was hat es mit dem Token=Q872zTYJ auf sich?

                Vermutung: Ist der Mandant für die API. Ich denke auch, dass es für apiv1.scribblelive.com eine etwas umfangreichere Dokumentation gibt als das, was ich experimentell ermittelt habe und hier zeigte. Schreib die doch einfach mal an. Außer format=json geht auch format=xml und format=csv für den Webservice.

                Die Datenstruktur jedoch sieht nicht gerade professionell aus.

                MfG

                --
                Im Hunsrück, da wo die Eltern Geschwister sind, steht Bonkel für Onkel == Bruder und Schwante für Tante == Schwester. Das Durchschnittsalter der Hauptschulabgänger liegt dort bei 25 Jahren.
  3. gudn tach!

    ich möchte die Bild-URL von einer Webseite haben, die die Bilder per Ajax nachlädt (Nachrichtenseite).

    wenn nicht alles automatisch laufen soll, sondern man von hand diverse sachen vorarbeiten darf, dann geht's u.u. relativ einfach, wie hingucker auch schon kurz gezeigt hat. ich greife hinguckers loesung weiter unten auf.

    Das ganze von der Linuxshell oder/und php per cron laden.

    ok, dann nehmen wir perl. :-)

    • wkhtmltopdf url file.pdf gibt mir zwar ein pdf mit bildern - bekomm sie aber aus dem pdf nicht raus.

    ich kenne wkhtmltopdf nicht, aber wenn die bilder im pdf noch bilder sind, dann lassen sie sich vielleicht mit 'pdfimages' extrahieren.

    Wer kann mir helfen?

    hingucker. allerdings bin ich so frei, den loesungsweg von hingucker etwas detailierter zu beschreiben und zu modifizieren.

    es geht dir darum, die comics von diesem url runterzuladen. also:

    1. rechtsklick auf eines der bilder, 'view image info', aha z.b. 'http://images.scribblelive.com/2015/9/18/0c4ee31a-0098-4edd-aae7-73df249397da.jpg'. domain merken.
    2. irgendein tool zum ueberwachen des traffics aktivieren, z.b. in firefox 'tools'->'web developer'->'network' oder das plugin livehttpheaders oder allgemeiner: wireshark.
    3. originalseite (mit den comics) erneut laden
    4. im network-tool schauen, welche requests an images.scribblelive.com geschickt wurden.
    5. diese requests manuell erneut senden (das koennen GET oder auch POST requests sein) und ergebnis anschauen. am vielversprechendsten sieht der inhalt von 'http://apiv1.scribblelive.com/event/1065698/page//?Token=Q872zTYJ&Max=100&Order=asc&format=json&callback=RecentPosts.GetInstance%280%29.DrawPosts' aus. da stehen sogar schon die bilder drin. allerdings scheint der callback-parameter nur dazu zu fuehren, dass der json-output komplett in einen zusaetzlichen funktionsaufruf eingebacken wird. ohne den parameter sieht das ergebnis besser aus: 'http://apiv1.scribblelive.com/event/1065698/page//?Token=Q872zTYJ&Max=100&Order=asc&format=json'
    6. in einem tool, mit dem man den json-matsch schoener anschauen kann, die struktur analysieren, z.b.
    #!/usr/bin/perl
    use strict;
    use warnings;
    use LWP::Simple;
    use JSON;
    use Data::Dumper;
    
    my $url = 'http://apiv1.scribblelive.com/event/1065698/page//?Token=Q872zTYJ&Max=100&Order=asc&format=json';
    my $struct = decode_json(get $url);
    print Dumper $struct;
    

    speichern als z.b. 'dl_comics.pl' und dann

    perl dl_comics.pl | less
    

    aha, aha, so so, wir wollen also die 'Url's der ersten eintraege von 'Media' aller elemente, die in 'Posts' enthalten sind.

    in perl geht das einfach mittels

    my @images = grep{defined} map{ $_->{Media}->[0]{Url} } @{$struct->{Posts}};
    

    das 'grep{defined}' sortiert nur die faelle aus, in denen kein 'Media'-element existiert.

    somit waere das komplette script (frei nach hingucker)

    #!/usr/bin/perl
    use strict;
    use warnings;
    use LWP::Simple;
    use JSON;
    use Data::Dumper;
    
    my $url = 'http://apiv1.scribblelive.com/event/1065698/page//?Token=Q872zTYJ&Max=100&Order=asc&format=json';
    my $struct = decode_json(get $url);
    my @images = grep{defined} map{ $_->{Media}->[0]{Url} } @{$struct->{Posts}};
    print Dumper \@images;
    

    im gegensatz zum von hingucker verwendeten url, sind bei diesem auch mehr bilder drin, aber immer noch nicht alle. einige bilder sind offenbar in 'Content' statt in 'Media' enthalten.

    ok, wenn man eh html-code durchsuchen soll, dann kann man sich auch gleich das json-gedoens sparen und mit regulaeren ausdruecken arbeiten:

    #!/usr/bin/perl
    use strict;
    use warnings;
    use LWP::Simple;
    use Data::Dumper;
    
    my $url = 'http://apiv1.scribblelive.com/event/1065698/page//?Token=Q872zTYJ&Max=100&Order=asc&format=json';
    my $re_image = qr/(\bimages\.scribblelive\.com\/[0-9a-f\/-]+\.[a-z]+)/;
    my @images = sort keys{map {'http://' . $_ => 1} (get($url) =~ /$re_image/g)};
    print Dumper \@images;
    

    von hinten nach vorne gelesen:

    • get($url) ist der content, der mit dem regexp durchforstet wird.
    • alle (g-modifier) fundstellen werden in ein array geklatscht, auf das map angewendet wird.
    • {map {'http://' . $_ => 1} ...} erstellt eine hash reference, bei der jedem url eine 1 zugewiesen wird. dadurch werden doppelte eintraege verhindert.
    • mit 'keys' greift man nun die urls heraus.
    • 'sort' ist fuer die sortierung der urls.

    das ganze geht auch in einer zeile, aber dadurch wird's nicht lesbarer.

    am ende erhaelt man jedenfalls eine liste mit dann hoffentlich allen bildern (der ersten comic-seite, fuer die zweite kann man analog verfahren).

    prost

    seth

    1. Hi, Ich dachte schon, mir ist was an einer Syntaxoptimierung in php vorbeigegangen. – jetzt weiß ich auch, wie Perl auskuckt :-)

      Ich hab mich für die plumpe (php) Variante entschieden und im Json-String nach den Links "http://images.scribblelive.com/" gesucht (muss mir keine Gedanken über Struktur machen -> array(31) -> [Post] -> [x] -> [Media] -> [x] -> [URL]) und lade die Bilder mit exec("wget .. ");

      Mit dem Kabelfisch werd ich mich doch mal beschäftigen.

      --
      Viele Grüße aus LA ralphi
      1. gudn tach!

        Ich dachte schon, mir ist was an einer Syntaxoptimierung in php vorbeigegangen. – jetzt weiß ich auch, wie Perl auskuckt :-)

        huebscher als php, gell? (und nein, du brauchst nicht zu antworten.)

        Ich hab mich für die plumpe (php) Variante entschieden und im Json-String nach den Links "http://images.scribblelive.com/" gesucht (muss mir keine Gedanken über Struktur machen -> array(31) -> [Post] -> [x] -> [Media] -> [x] -> [URL])

        ja, die letzte methode in meinem post verzichtet ja ebenfalls darauf, die struktur zu analysieren. aber mit 'http://images...' wirst du nicht alle bilder finden. einige urls haben noch eine zusaetzliche domain dazwischen. deswegen suche besser nur nach 'images.scribblelive.com/...' und setze anschliessend wieder ein 'http://' davor -- so wie im letzten beispiel in meinem vorigen post.

        und lade die Bilder mit exec("wget .. ");

        koennte man innerhalb von perl auch einfach via

        getstore($url, $file);

        oder

        mirror($url, $file);

        tun.

        prost

        seth

        1. gudn tach!

          Ich dachte schon, mir ist was an einer Syntaxoptimierung in php vorbeigegangen. – jetzt weiß ich auch, wie Perl auskuckt :-)

          huebscher als php, gell? (und nein, du brauchst nicht zu antworten.)

          Dafür antworte ich eben ;)

          Auf jeden Fall würde bei einer von mir entwickelten wesentlich flacheren Datenstruktur als Entity/Attribute/Value auch ein Serializer in PHP wesentlich unkomplzierter aussehen, also fast so hübsch wie der Kumpel in Perl (nur die Klammern sin eckisch):

          $data = $this->eav_decode($response); # PHP, Perl
          $url_0 = $data['0']['url'];             # PHP
          $url_1 = $data['1']['url'];             # PHP
          
          my $url_0 = $data->{0}{url};          # Perl
          # usw.
          

          und so gebaut sein, dass, wenn gewünscht auch gleich die Binaries übertragen werden können. Eine solche Datenstruktur ist im Prinzip eine Tabelle mit 3 Spalten (EAV).

          MfG

        2. Hi,

          huebscher als php, gell? (und nein, du brauchst nicht zu antworten.)

          oh - vielen Dank für die Erläuterungen. Ich bin deinen Gedanken aufmerksam gefolgt und habe dein Vorgehensweisen im Hinterkopf :-) Den Fisch werde ich in kürze installieren.

          Das ursprüngliche Ziel meiner Frage war eigentlich, ob es möglich ist auf Shell-, (cli)-Ebene eine Webseite mit JS(Ajax) zu laden. Also ohne eine (Json)URL zu schnüffeln.

          Im prinzip macht das wkhtmltopdf. Es gibt auch eine JS-engine v8js für php (fehlt mir nur der Ansatz, wie ich damit eine fremde Seite ausführe).

          So eine Möglichkeit wäre bei vielen Situationen brauchbar (zB. Guthaben Prepaid, dyn. Plots, Börse/Spielstände etc.). Idee dazu?

          --
          Viele Grüße aus LA ralphi "Nicht alles was einfach ist, ist genial, aber alles was genial ist, ist einfach" - Albert E.
          1. gudn tach!

            huebscher als php, gell? (und nein, du brauchst nicht zu antworten.)

            oh - vielen Dank für die Erläuterungen. Ich bin deinen Gedanken aufmerksam gefolgt und habe dein Vorgehensweisen im Hinterkopf :-) Den Fisch werde ich in kürze installieren.

            mit dem fisch meinst du vermutlich wireshark, oder? perl hat damit nix zu tun. und wireshark haben in diesem fall weder hingucker noch ich verwendet. (ich sags nur, um missverstaendnissen vorzubeugen.)

            Das ursprüngliche Ziel meiner Frage war eigentlich, ob es möglich ist auf Shell-, (cli)-Ebene eine Webseite mit JS(Ajax) zu laden. Also ohne eine (Json)URL zu schnüffeln.

            ja, dafuer kenne ich keine allgemeine loesung. es gibt zwar auch in perl ansaetze z.b. ueber WWW::Scripter, aber ich glaube, das laeuft nicht sonderlich stabil.

            wenn du firefox mit benutzen darfst/kannst, koenntest du WWW::Mechanize::Firefox in zusammenspiel mit dem mozrepl-plugin ausprobieren. dann kann man verwenden, um firefox per script zu bedienen. auch das DOM einer seite laesst sich damit manipulieren, man kann screenshots machen, und vieles mehr.

            ausserdem koennten

            interessant sein, habe ich aber selbst noch nicht ausprobiert.

            prost

            seth

    2. moin ihr lieben,

      im gegensatz zum von hingucker verwendeten url, sind bei diesem auch mehr bilder drin, aber immer noch nicht alle. einige bilder sind offenbar in 'Content' statt in 'Media' enthalten.

      Ja, das ist Genau das, was ich mit "die Datenstruktur sieht nicht gerade professionell aus" meinte.

      Sie ist nicht homogen und unnötig geschachtelt. Homogen hieße, ich machte eine einheitliche Struktur, also entweder gleich ein Array mit Hash-Referenzen pder einen Hash mit Hashreferenzen. Die Struktur ist zyklisch, weil es mehrere sich wiederholende Platzhalter/Schlüssel sind.

      D.h., am Ende sollte ein Cartoon-URL in der Datenstruktur stets an der gleichen Stelle zu finden sein.

      ok, wenn man eh html-code durchsuchen soll, dann kann man sich auch gleich das json-gedoens sparen und mit regulaeren ausdruecken arbeiten:

      Ausgerechnet das, nun, würde ich gerade nicht machen. Denn es ist bei einem solchem Service vollkommen Wurscht ob die Daten als json, xml, html, txt, csv oder sonstwie übertragen werden. Vorausgesetzt, die Datenstruktur wurde gut überlegt, besteht die Daten-Abstraktion nur noch darin, den passenden Serializer zu wählen. Und der würde von mir aus gesehen auf jeden Fall NICHT XML, NICHT CSV und auch NICHT JSON heißen, wenn ich sowas entwickeln müsste.

      Vielmehr würde ich dem Anwender meiner API den Serializer für lokale Clients gleich mitgeben.

      Auf jden Fall Danke dafür, meine Idee aufzugreifen :)

      MfG

      1. gudn tach!

        ok, wenn man eh html-code durchsuchen soll, dann kann man sich auch gleich das json-gedoens sparen und mit regulaeren ausdruecken arbeiten:

        Ausgerechnet das, nun, würde ich gerade nicht machen.

        nun, eine andere schoene moeglichkeit sehe ich in diesem fall nicht, alle bilder zu extrahieren. du etwa?

        prost

        seth

        1. gudn tach!

          ok, wenn man eh html-code durchsuchen soll, dann kann man sich auch gleich das json-gedoens sparen und mit regulaeren ausdruecken arbeiten:

          Ausgerechnet das, nun, würde ich gerade nicht machen.

          nun, eine andere schoene moeglichkeit sehe ich in diesem fall nicht, alle bilder zu extrahieren. du etwa?

          Die ganze t-online Seite in die Tonne treten wäre besser. So ein Schrott aber auch und die verdienen damit auch noch Geld.

          Und eine saubere API/Feed/Webservice bereitstellen.

          MfG

          1. gudn tach!

            ok, wenn man eh html-code durchsuchen soll, dann kann man sich auch gleich das json-gedoens sparen und mit regulaeren ausdruecken arbeiten:

            Ausgerechnet das, nun, würde ich gerade nicht machen.

            nun, eine andere schoene moeglichkeit sehe ich in diesem fall nicht, alle bilder zu extrahieren. du etwa?

            Die ganze t-online Seite in die Tonne treten wäre besser. So ein Schrott aber auch und die verdienen damit auch noch Geld.

            aeh, das mit dem in-die-tonne-treten liegt nicht in unserer hand. und selbst wenn doch, sollten wir's nicht tun, weil illegal.

            Und eine saubere API/Feed/Webservice bereitstellen.

            klar, wenn die welt besser waere, waere die welt besser. aber das hilft niemandem bei konkreten problemen weiter. beim konkreten problem halte ich die regexp-loesung fuer die bisher sauberste.

            prost seth

            1. moin,

              klar, wenn die welt besser waere, waere die welt besser. aber das hilft niemandem bei konkreten problemen weiter. beim konkreten problem halte ich die regexp-loesung fuer die bisher sauberste.

              ich denke SELFHTML heißt auch lernen, wie man's nicht machen sollte.

              Für was gibt es denn XML/JSOM/CSV-Serializer? Das ist zwar nicht der neueste Stand der von modernen Browsern unterstützten Technik, aber sinnvoll eingesetzt mit gut überlegten Datenstrukturen wäre das ok.

              Den Betreiber des Feed kontaktieren wäre eine Alternative und das hab ich gestern schon geschrieben. Das geth in die Richtung "Miteinander reden".

              MfG

              1. gudn tach!

                klar, wenn die welt besser waere, waere die welt besser. aber das hilft niemandem bei konkreten problemen weiter. beim konkreten problem halte ich die regexp-loesung fuer die bisher sauberste.

                ich denke SELFHTML heißt auch lernen, wie man's nicht machen sollte.

                selbstverstaendlich. und das widerspricht nicht meiner auffassung, dass die regexp-loesung von den bisher genannten das beste ergebnis liefert, wenn das guetemass ist, moeglichst viele comics der genannten seite zu grabben.

                Für was gibt es denn XML/JSOM/CSV-Serializer?

                fuer saubereren code als den, den wir haben.

                Das ist zwar nicht der neueste Stand der von modernen Browsern unterstützten Technik, aber sinnvoll eingesetzt mit gut überlegten Datenstrukturen wäre das ok.

                ja, die sind alle drei gut. json finde ich besonders prima, weil human-readable (oder zumindest am besten lesbar fuer mich).

                Den Betreiber des Feed kontaktieren wäre eine Alternative und das hab ich gestern schon geschrieben.

                ja, deswegen hab ich das auch "geplust". manchmal hat man mit sowas tatsaechlich erfolg, wenn auch leider zu selten.

                Das geth in die Richtung "Miteinander reden".

                wenn man viel zeit fuer eine loesung hat, kann man da mal anfragen und eine antwort abwarten. bis man die erhaelt und der code evtl. tatsaechlich mal geaendert werden sollte -- du ahnst, was jetzt kommt --, ist meiner ansicht nach die regexp-loesung ungeschlagen.

                gruss seth

                1. Gefragt sind hier im speziellen Fall der Syndication insbesondere die Betreiber der sog. sozialen Medien wie Facebook, Twitter und Co. Wenn die sich allemal an einen Tisch setzen und miteinander reden würden, käme vielleicht was dabei raus, was vor Allem den tatsächlichen Stand der heutigen Technik widerspiegeln würde.

                  wenn man viel zeit fuer eine loesung hat,

                  Ach was, wie lange gibt es die denn schon!?

                  MfG

                  1. gudn tach!

                    wenn man viel zeit fuer eine loesung hat,

                    Ach was, wie lange gibt es die denn schon!?

                    zeit? gibt's schon ziemlich lange.

                    prost

                    seth