Gockel: Links auf Dateien fremder Server

Hallo!

Kurze Frage: Darf ich rechtlich gesehen direkt auf Dateien fremder Server verlinken (in diesem Fall legale Filme), wenn ich kennzeichne, dass diese auf anderen Servern liegen (zB. volle URL sichtbar)?

Danke
Andreas

  1. Hallo Gockel,

    ich würde auf die Seite einen Link setzen, von der der User das Gewünschte laden kann. Er verlässt also Deine Seite und wählt auf der (Übersichts)Seite des eigentlichen Anbieters den Film aus.

    Mit freundlichem Gruß
    Micha

  2. Hi,

    Kurze Frage: Darf ich rechtlich gesehen direkt auf Dateien fremder Server verlinken (in diesem Fall legale Filme), wenn ich kennzeichne, dass diese auf anderen Servern liegen (zB. volle URL sichtbar)?

    Macht Google etwas anderes?

    Dennoch, wenns legale Downloads sind, kein Problem.
    Alles andere wäre unter Umständen Aufforderung zur Straftat oder
    Begünstigung oder was auch immer einem ehrenwerten Staatsanwalt einfällt. Und in einigen Bereichen teile ich diese Meinung durchaus.


    Lux

    1. Ohohoh wenn du dich da mal nicht irrst.

      Dem anderen Seitenbetreiber entstehen dadurch Traffikkosten...
      Wenn er es nicht will kann er dich dafür auch vor Gericht bringen also am besten erstmal Fragen.

      Alex

      1. Hi Alex,

        Dem anderen Seitenbetreiber entstehen dadurch Traffikkosten...
        Wenn er es nicht will kann er dich dafür auch vor Gericht bringen also am besten erstmal Fragen.

        Und er wäre damit meiner Meinung 100% im Recht, würde aber dennoch leider vor Gericht verlieren. Sonst wäre jegliche kleine oder grössere Suchmaschine/Directory ebenfalls von dem Urteil betroffen, welche die gleichen Links ausgibt.

        lux

        1. Hi lux,

          so ganz einfach ist die Geschichte nicht würde ich sagen.

          Schau dir mal http://www.trafficklau.de/ an - da steht einiges darüber.

          Und hier ging es ja um ein Video wenn ich mich nicht irre und nciht um eine normale Seite.

          gruß
          alex

          1. Hi Alex,

            Und hier ging es ja um ein Video wenn ich mich nicht irre und nciht um eine normale Seite.

            und was wäre das zb.
            das sind auch videos

            Also wie der inhalt auf deinem Link schon zeigt, gibt es diesbezüglich noch keine Urteile. Auf die wäre ich aber auch gespannt, denn ich habe zu dem ganzen Thema ein glasklare Meinung.

            Nicht wir als Webmaster müssen irgendeine Verlinkung mit irgendwelchen Robots sperren, sondern höchstens explizit eine Verlinkung erlauben durch robots.txt.

            Ein kleines Beispiel:

            User-Agent: Googlebot-Image
            Disallow: /

            Das verbietet zwar dem google Bot keine Bilder zu suchen und zu speichern, aber meinem "spezialfranksinatrabot" wäre es ja somit erlaubt.

            das kann passieren
            Dann passieren auch nicht solche Sachen ahnungslosen Opfern, bzw können diese sich sehr viel besser wehren.

            Noch zum Abschluss:
            Nur weil ich ein kleines Cafe besitze, wo man mich besuchen kann, sollte es keinem erlaubt sein, reinzukommen und alles zu fotografieren. Ist ja auch nicht erlaubt im Internet aber anscheinend schon.

            Gruss
            Lux

            1. hi,

              Nicht wir als Webmaster müssen irgendeine Verlinkung mit irgendwelchen Robots sperren, sondern höchstens explizit eine Verlinkung erlauben durch robots.txt.

              Aha?

              Ein kleines Beispiel:

              User-Agent: Googlebot-Image
              Disallow: /

              Und "disallow" ist also Englisch für "explizit erlauben"?

              Noch zum Abschluss:
              Nur weil ich ein kleines Cafe besitze, wo man mich besuchen kann, sollte es keinem erlaubt sein, reinzukommen und alles zu fotografieren. Ist ja auch nicht erlaubt im Internet aber anscheinend schon.

              Nicht alles, was hinkt, ist auch ein Vergleich.

              gruß,
              wahsaga

              --
              /voodoo.css:
              #GeorgeWBush { position:absolute; bottom:-6ft; }
              1. Hi,

                Ein kleines Beispiel:

                User-Agent: Googlebot-Image
                Disallow: /

                Und "disallow" ist also Englisch für "explizit erlauben"?

                Kannst du oder willst du mich nicht verstehen?

                Wenn ich google aussperre, dann sperre ich noch lange nicht den
                Franksinatraodersonstwasbot.

                Aber das hast du ja auch wohlweislich nicht zitiert.

                lux

                1. hi,

                  Aber das hast du ja auch wohlweislich nicht zitiert.

                  Ich hatte wohlweislich das zitiert, was an deiner Aussage widersprüchlich war.

                  Ob du das jetzt wohlweislich ignoriert hast, oder weil du's nicht begriffen hast, musst du mir sagen.

                  gruß,
                  wahsaga

                  --
                  /voodoo.css:
                  #GeorgeWBush { position:absolute; bottom:-6ft; }
                  1. Hi,

                    Ich hatte wohlweislich das zitiert, was an deiner Aussage widersprüchlich war.

                    Ja *schäm, hatte ich ja schon zu Cybaer gesagt, dass es spät war.

                    Dennoch sollte eigentlich klar gewesen sein, dass ich damit meinte,
                    man kann googlebots aussperren(zumindest veröffentlicht google das dann nicht), aber wenn man jeden bot aussperren wollte, wäre das unmöglich. Insofern ist die aktuelle robots.txt(was darf nicht)-Pflicht des Webmasters genau der falsche Weg. Es kann nur einen logisch vernünftigen Weg geben: robots.txt (du darfst hier rein, alle anderen raus!).

                    Und ich denke, das hattest du durchaus auch so verstanden, wenngleich auch ein einziges Wort das fehlerhaft erschienen ließ.

                    lux

                    1. hi,

                      man kann googlebots aussperren(zumindest veröffentlicht google das dann nicht), aber wenn man jeden bot aussperren wollte, wäre das unmöglich.

                      Warum?
                      * als Angabe für den User-agent ist laut Spezifikation (sofern man hier von einer solchen reden kann) erlaubt.

                      Insofern ist die aktuelle robots.txt(was darf nicht)-Pflicht des Webmasters genau der falsche Weg. Es kann nur einen logisch vernünftigen Weg geben: robots.txt (du darfst hier rein, alle anderen raus!).

                      Um ständig Einträge für neue Spider nachtragen zu müssen, die in Zukunft relvant werden und erwünscht sein könnten?

                      gruß,
                      wahsaga

                      --
                      /voodoo.css:
                      #GeorgeWBush { position:absolute; bottom:-6ft; }
                      1. Hi,

                        Um ständig Einträge für neue Spider nachtragen zu müssen, die in Zukunft relvant werden und erwünscht sein könnten?

                        Ja so wäre meine Wunschvorstellung des Ganzen.

                        Auch wenn du meinst der Vergleich mit meinem Cafe wäre unsinnig, ist das für mich persönlich die richtige Vergleichsmöglichkeit.

                        In erster Linie ist meine Webseite mein Eigentum.

                        In 2. Linie erlaube ich vielleicht Menschen mich zu besuchen.(wie im Cafe)

                        Und zuletzt gestatte ich(was ich meisstens nicht tue) irgendwelchen
                        nichtmenschlichen Besuchern den Zutritt bzw. sogar Foto und Filmrecht, wenn ich das wieder mit dem Cafe vergleiche.

                        Und ich werde niemals einsehen und akzeptieren, dass mein Platz im Internet anders als mein Platz im richtigen Leben zu behandeln ist.

                        Aber so hat natürlich jeder seinen eigenen Standpunkt. Argumentativ kann man daher auch nie auf einen Nenner kommen.

                        lux

                        1. Hi,

                          In erster Linie ist meine Webseite mein Eigentum.

                          In erster Linie ist deine Website dein öffentliches(!) schwarzes Brett. Das gehört zwar dir, aber wenn Du deine Infos nicht allen zur Verfügung stellen möchtest, dann ist das Web (in geschützt) schlicht der falsche Platz. Denn genau für diesenZweck wurde es überhaupt erschaffen: Zum Informationsaustausch.

                          Es gilt das gleiche, was ich Pia jüngst sagte: Sich am Spiel anderer zu beteiligen und dann nachträglich seine eigenen Spielregeln aufstellen zu wollen, die diametral zu den bisher gültigen stehen und, weil die Gemeinschaft aber auf ihren akzeptierten Gründungsspielregeln besteht, rumzuplärren, ist nicht zielführend (mal sehr höflch ausgedrückt >:->).

                          Und ich werde niemals einsehen und akzeptieren, dass mein Platz im Internet anders als mein Platz im richtigen Leben zu behandeln ist.

                          S.o. Und niemand zwingt dich, aktiv ins Internet zu gehen, noch zwingt dich irgendjemand, entsprechende Maßnahmen in deinem Sinne zu unterlassen, die zu diesen Spielregeln passen.

                          Aber so hat natürlich jeder seinen eigenen Standpunkt. Argumentativ kann man daher auch nie auf einen Nenner kommen.

                          Richtig. Deswegen gilt: Bis zur Änderung der bestehenden Spielregeln gelten die alten. Und jetzt geh heulen ... =%-))

                          Gruß, Cybaer

                          --
                          Hinweis an Fragesteller: Fremde haben ihre Freizeit geopfert, um Dir zu helfen. Helfe Du auch im Archiv Suchenden: Beende deinen Thread mit einem "Hat geholfen" oder "Hat nicht geholfen"!
            2. Hi,

              Also wie der inhalt auf deinem Link schon zeigt, gibt es diesbezüglich noch keine Urteile. Auf die wäre ich aber auch gespannt,

              ?

              Deep-Linking ist erlaubt (Paperboy-Urteild des IIRC BGH), Einbinden (ohne Erlaubnis) von fremden, urheberrechtlich geschützten Werken nicht (div. Urteile bezügl. "Framing").

              Wo Du da Rechtsunsicherheit siehst, darauf bin *ich* mal gespannt. ;-)

              Nicht wir als Webmaster müssen irgendeine Verlinkung mit irgendwelchen Robots sperren, sondern höchstens explizit eine Verlinkung erlauben durch robots.txt.

              Negative Verneinung = Erlaubnis? So kann man es auch formulieren. LOL :-))

              Dann passieren auch nicht solche Sachen ahnungslosen Opfern, bzw können diese sich sehr viel besser wehren.

              Wer ist denn hier das "ahnungslose Opfer"? :)

              Daß man öffentlich zugängliche Fotos ohne Erlaubnis nicht verwerten darf (egal ob für Porno-Cover oder Kochrezepte) ist eigentlich eine Binsenweisheit, die einem im Zweifel auch gerne jeder Jurastudent im 1. Semester beantworten können sollte. =;->

              Ist ja auch nicht erlaubt im Internet aber anscheinend schon.

              ancheindend != scheinbar

              Gruß, Cybaer

              --
              Hinweis an Fragesteller: Fremde haben ihre Freizeit geopfert, um Dir zu helfen. Helfe Du auch im Archiv Suchenden: Beende deinen Thread mit einem "Hat geholfen" oder "Hat nicht geholfen"!
              1. Hi,

                Deep-Linking ist erlaubt (Paperboy-Urteild des IIRC BGH), Einbinden (ohne Erlaubnis) von fremden, urheberrechtlich geschützten Werken nicht (div. Urteile bezügl. "Framing").

                Ich bezog mich auf den Link von Alex zm Thema traffic-klau und da steht halt "Gegen Traffic-Klau im speziellen gibt es bislang noch keine Urteile oder Gesetze"
                http://www.trafficklau.de/para.html

                Nicht wir als Webmaster müssen irgendeine Verlinkung mit irgendwelchen Robots sperren, sondern höchstens explizit eine Verlinkung erlauben durch robots.txt.

                Negative Verneinung = Erlaubnis? So kann man es auch formulieren. LOL :-))

                Ja , lol war schon spät.

                Daß man öffentlich zugängliche Fotos ohne Erlaubnis nicht verwerten darf (egal ob für Porno-Cover oder Kochrezepte) ist eigentlich eine Binsenweisheit, die einem im Zweifel auch gerne jeder Jurastudent im 1. Semester beantworten können sollte. =;->

                Dennoch wird das Mädel es scher haben, mangels Geld, Ihr Recht durchzusetzen. Und Suchmaschinen/Directorys machen es halt einfach solchen Content zu finden, ob man will oder nicht.

                lux

                1. Hi,

                  da steht halt "Gegen Traffic-Klau im speziellen gibt es bislang noch keine Urteile oder Gesetze"

                  Glaubst Du alles, was irgendwo steht? =:-o Traffic-Klau *ist* "Framing" (also das "Zueigenmachen fremder Inhalte"). Das Gesetz dagegen: UrhG. Und Richter, die sagen, daß das ein Verstoß gegen das UrhG ist, gibt es auch (reichlich).

                  Oder anders: Nur weil Du mit dem Wohnwagen im Halteverbot stehst, es aber nur Urteile gibt, in denen PKWs vorkommen, ändert das nichts am Parkverbot. Auf ein Gesetz "gilt auch für Wohnwagen" kann man lange warten ...
                  ... auf eine richterliche Entscheidung dazu auch (denn jeder Anwalt bei Verstand, wird seinem Mandanten von vorneherein von einem zu verlierenden Prozeß abraten). =;-)

                  Dennoch wird das Mädel es scher haben, mangels Geld, Ihr Recht durchzusetzen.

                  Ob jemand sein Recht durchsetzt, bzw. warum er es vielleicht nicht macht, ändert auch nichts an der Rechtslage ...

                  ... ist ja eine persönliche Entscheidung.

                  Und wenn es sich um einen "seriösen" Rechteverletzer handelt (also niemand, der schon bei 10 EUR den Offenbarungseid ablegt ;->), dann kann man sicher auch einen Kredit aufnehmen. ;)

                  Ansonsten gibt es zumindest hierzulande Prozeßkostenbeihilfe, wenn man kein Geld hat, sein Recht durchzusetzen. Bei so klarer Sachlage, wird es kein Problem sein, die zu bekommen.

                  Und Suchmaschinen/Directorys machen es halt einfach solchen Content zu finden, ob man will oder nicht.

                  Und wenn man nicht will, dann ist solcher Content auch schwerlich zu finden. Ein Beispiel hast Du ja gezeigt. Jeder kann eine Robot-Beschränkng oder gar einen Zugriffsschutz auf seinem Server installieren.

                  Daß Suchmaschinen es allerdings Urheberechtsverletzern einfacher machen als früher: Klar.
                  Aber Urheberrechtsverletzungen hat es auch vor dem Web schon gegeben.
                  Und: Man kann sie jetzt natürlich auch leichter aufspüren! >:->

                  Gruß, Cybaer

                  --
                  Hinweis an Fragesteller: Fremde haben ihre Freizeit geopfert, um Dir zu helfen. Helfe Du auch im Archiv Suchenden: Beende deinen Thread mit einem "Hat geholfen" oder "Hat nicht geholfen"!
  3. Hi,

    Kurze Frage: Darf ich rechtlich gesehen direkt auf Dateien fremder Server verlinken (in diesem Fall legale Filme), wenn ich kennzeichne, dass diese auf anderen Servern liegen (zB. volle URL sichtbar)?

    Verlinken (also als A-Element) ist erlaubt, einbinden (also als IMG, OBJECT/EMBED, IFRAME, ...) ist verboten.

    Gruß, Cybaer

    --
    Hinweis an Fragesteller: Fremde haben ihre Freizeit geopfert, um Dir zu helfen. Helfe Du auch im Archiv Suchenden: Beende deinen Thread mit einem "Hat geholfen" oder "Hat nicht geholfen"!