M.: automatisches Auslesen von Webseiten erschweren.

Beitrag lesen

  1. "Diebe" die einmal auf deine Seite kommen und ein sagen wir mal "Screenshot" machen. Die wirste wohl niemals ausschliessen können.

Das ist klar, das will ich auch gar nicht.

  1. "Diebe" die Teile deiner Webseite in Regelmässigen abständen klauen. Ich muss gestehen dazu zähle ich. Also nicht direkt bei dir, aber ich hab eine "Verbindung" zu einer anderen Seite gebaut, die Teile meiner Datenbank aktuell hält. Deshalb kann ich ein wenig aus eigener Erfahrung sprechen.

Wenn jemand einen Teil klaut, ist das auch nicht schlimm. Mir geht es darum, dass jemand das, was ich in mehreren Monaten aufgebaut hab, komplett klaut und dann ein identisches Projekt macht. Wenn schon mehrere "klauer" aus China anfangen auf der jetzigen Seite alles zu spidern, was es gibt, wird das, beim erweiterten Projekt schon schlimmer werden.

Ärgerlich ist, wenn sich die HTML Struktur ändert. Kommt natürlich drauf an wie stabil man das ganze baut. Wenn man HTML Tags zählt um dann Content aus irgendeiner Zelle zu holen, reicht es schon aus, ein paar dummy Zellen/Tags in den Code ein zu bauen.

Ich muss halt sehen, was ich verändern kann ohne Google und Co. zu ärgern.

Ansonsten gibt es ein paar "Abwehrmaßnahmen gegen PHP-CURL".

Das wird nix bringen, die Spidern mit IE6 und XP SP2 als Browserkennung. Aber zumindest habe ich jetzt erstmal alles geblockt, was reine HEAD-requests sind und alles, was noch http1.0 ist.

Zumindest hat das vorerst die Chinesen ausgesperrt bzw. bekommen sie jetzt einen 403er mit dem Text: Chinese spammers have a very small penis *g*

Hilfe war nicht wirklich professionell - ist schon spät *Gähn*. Hoffe ich konnte trotzdem helfen!

Viel besser als das, was Ernst abgelassen hat und zumindest Denkansätze waren dabei :)