Shaguar: copy() mit Wildcard

Hi zusammen,
ich will eine Datei via copy von einem entfernten Server kopieren (eine jpg Datei). Das Problem ist nur das ich nicht die genaue Adresse kenne, ich kenne den Ordner und den Dateinamen bis auf die letzte Ziffer, also http://bla.de/blub/datei1.jpg Die "1" kann hierbei varieren, mal ist es eine 2 oder auch eine 3. Gibt es irgendeine Möglichkeit diese Dateie zu kopieren wenn ich nicht den kompletten Pfad kenne?
Also vllt copy("http://bla.de/blub/datei*.jpg",$home_pfad); ?
Oder alle Möglichkeiten in diesen Ordner auflisten die auf diesen Pfad passen (http://bla.de/blub/datei*.jpg) und diese dann in ein Array speichern, aber ich glaube das geht nicht oder?

  1. Hellihello

    durchlauf doch einfach eine schleife und zähl die möglichen zahlen durch. das andere von dir genannte geht m.w. nicht.

    Dank und Gruß,

    frankx

    --
    tryin to multitain  - Globus = Planet != Welt
    1. Hellihello

      durchlauf doch einfach eine schleife und zähl die möglichen zahlen durch. das andere von dir genannte geht m.w. nicht.

      Dank und Gruß,

      »»

      Ja gut aber was ist wenn die Zahl erst 360 ist, soll ich dann etwa 360 mal die copy() Funktion aufrufen bis es dann klappt? das könnt ja dann ziemlich dauern

      1. Hellihello,

        jau, aber du willst ja einen http-request auf einen fremden server absetzen. was wäre denn, wenn du einfach mal copy (*.*) machst, dann willst du damit alle dateien runterkopieren. Der Apache bzw. das http-Protokoll kennt das m.W. nicht. Per GET gibts du eine eindeutige URL an, und bekommst dann eine Antwort.

        Dank und Gruß,

        frankx

        --
        tryin to multitain  - Globus = Planet != Welt
        1. Naja das gibt irgendwie schon Sinn, aber vielleicht kennt ja noch jemand einen ganz anderen Lösungsanstz.

          1. Hellihello

            Naja das gibt irgendwie schon Sinn, aber vielleicht kennt ja noch jemand einen ganz anderen Lösungsanstz.

            Nein, siehe Martins Antwort und Toms.

            Dank und Gruß,

            frankx

            --
            tryin to multitain  - Globus = Planet != Welt
      2. Hello,

        durchlauf doch einfach eine schleife und zähl die möglichen zahlen durch. das andere von dir genannte geht m.w. nicht.

        Das Grabben von fremden Webseiten kann zu ungeahnten Briefen führen ;-))

        Ein harzliches Glückauf

        Tom vom Berg

        --
        Nur selber lernen macht schlau
        http://bergpost.annerschbarrich.de
        1. Hello,

          durchlauf doch einfach eine schleife und zähl die möglichen zahlen durch. das andere von dir genannte geht m.w. nicht.

          Das Grabben von fremden Webseiten kann zu ungeahnten Briefen führen ;-))

          Ein harzliches Glückauf

          Tom vom Berg

          Durchaus möglich, aber dazu grad mal ne Frage: Bekommt der Server denn mit wenn man versucht Bilder mit copy zu kopieren die gar nicht auf dem Server existieren?

          1. Hi,

            Hello,
            [...]

            bitte zitiere sinnvoll und maßvoll, und nicht wahllos das ganze Vorposting!

            Bekommt der Server denn mit wenn man versucht Bilder mit copy zu kopieren die gar nicht auf dem Server existieren?

            Natürlich. Jeder Zugriff auf eine nicht vorhandene Ressource verursacht einen Eintrag im Server-Protokoll mit dem HTTP-Status "404 Not Found".

            So long,
             Martin

            --
            Noch Fragen? - Ich weiß es auch nicht.
          2. Hellihello,

            jau, du fragst ihn doch, und er loggt jede Anfrage mit und beantwortet sie in der Regel sogar, mit 404 in dem Fall in der Regel.

            Dank und Gruß,

            frankx

            --
            tryin to multitain  - Globus = Planet != Welt
          3. Hi,

            bitte zitiere vernuenftig!

            Durchaus möglich, aber dazu grad mal ne Frage: Bekommt der Server denn mit wenn man versucht Bilder mit copy zu kopieren die gar nicht auf dem Server existieren?

            Natuerlich, jeder Request wird (in normaler Konfiguration) vom Server gelogt, und jeder deiner Request auf eine nicht existente Ressource wird einen 404 im Log hinterlassen.

            MfG ChrisB

            --
            "The Internet: Technological marvel of marvels - but if you don't know *what* you're lookin' for on the Internet, it is nothing but a time-sucking vortex from hell."
          4. Hello,

            Das Grabben von fremden Webseiten kann zu ungeahnten Briefen führen ;-))

            Durchaus möglich, aber dazu grad mal ne Frage: Bekommt der Server denn mit wenn man versucht Bilder mit copy zu kopieren die gar nicht auf dem Server existieren?

            Im Access-Log finden sich dann i.d.R. lauter Einträge mit 404-Status Codes und da Der request per Get stattfindet, auch die durchgezählten Ressource-Strings dazu.

            Einem einigermaßen intelligenten Server-Betreuer sollte sowas sofort ins Auge springen.

            Ein harzliches Glückauf

            Tom vom Berg

            --
            Nur selber lernen macht schlau
            http://bergpost.annerschbarrich.de
        2. Hellihello

          Das Grabben von fremden Webseiten kann zu ungeahnten Briefen führen ;-))

          Kannst du definieren:

          "grabben"

          und

          "ungeahnte Briefe"?

          Details würden mich interessieren: ab wann ist etwas "grabben", ab wann kann es zu Briefen kommen? Es gibt doch auch Browsertools, die Webseiten komplett mit Unterordnern runterladen. Für die private Abspeicherung (das macht der cache ja auch) gibt das doch kein Problem, oder?

          Dank und Gruß,

          frankx

          --
          tryin to multitain  - Globus = Planet != Welt
          1. Hello,

            Es gibt doch auch Browsertools, die Webseiten komplett mit Unterordnern runterladen. Für die private Abspeicherung (das macht der cache ja auch) gibt das doch kein Problem, oder?

            Ja, aber die greifen nur auf die in den seiten selber verlinkten Ressourcen zu. Dabei können bei schlecht gepflegten Webseiten zwar auch etliche Fehlversuche entstehen, aber normalerweise sollten die schon zu vorhandenen Ressourcen führen.

            Unter "Grabben" versteht man i.d.R. den nicht bestimmungsgemäßen, möglichst vollständigen (organisierten) Abgriff aller vorhandenen Daten in strukturierten Datensammlungen, die nicht als Gesmatangebot (verlinkt) vorliegen, also Datenbanken.

            Das fällt dann bereits unter Computer-Kriminalität und kann zum Offizialdelikt gereichen.

            Ein harzliches Glückauf

            Tom vom Berg

            --
            Nur selber lernen macht schlau
            http://bergpost.annerschbarrich.de
            1. Hellihello

              Es gibt doch auch Browsertools, die Webseiten komplett mit Unterordnern runterladen. Für die private Abspeicherung (das macht der cache ja auch) gibt das doch kein Problem, oder?

              Ja, aber die greifen nur auf die in den seiten selber verlinkten Ressourcen zu. Dabei können bei schlecht gepflegten Webseiten zwar auch etliche Fehlversuche entstehen, aber normalerweise sollten die schon zu vorhandenen Ressourcen führen.

              Grabben aber trotzdem, gelle?

              Unter "Grabben" versteht man i.d.R. den nicht bestimmungsgemäßen, möglichst vollständigen (organisierten) Abgriff aller vorhandenen Daten in strukturierten Datensammlungen, die nicht als Gesmatangebot (verlinkt) vorliegen, also Datenbanken.

              Wenn ich alle Google-Ergebnisse zu einem Suchewort mittels eines Scriptes (statt das mit der Hand durchzuklicken) "abgreife", wäre das so ein Fall?

              Kann ein Veröffentlicher denn den User auf eine "Bestimmungsmäßigkeit" festlegen. Ich könnte ja auch mit eine bild-Zeitung Dinge tun, die so von der Bild-Zeitung nicht gedacht waren.

              Das fällt dann bereits unter Computer-Kriminalität und kann zum Offizialdelikt gereichen.

              Wo fängt die denn an? Beim Abgreifen wirklich? Oder erst beim wiederveröffentlichen? Also liegt bereits eine Straftat vor, wenn die Angebote meiner Datenbank - die dann ja irgendwie schon komplett verlinkt irgendwie vorliegen, fragt sich nur, wie und auf welchem weg man sich durch die komplette Seite klickt - anders als durch Browserclients systematisch abgesucht werden? Wo ist der Unterschied zu robots dann? Klar ist mir, dass Datenbanken als Gesamtwerk auch urheberrechtlichen Schutz genießen können. Aber gerade da bezieht sich das ja vermutlich weniger auf das komplette Abgreifen/Abspeichern sondern vielmehr auf ein (unerlaubtes) Wiederveröffentlichen.

              Dank und Gruß,

              frankx

              --
              tryin to multitain  - Globus = Planet != Welt