Peter Meier: Brauchen Suchmaschinen Links ?

Hi

Ich betreue zurzeit eine Seite, welche aus statischem HTML besteht. Die Navigation dieser Seiten funktioniert jedoch über JS. Die ganze Angelegenheit funktioniert eigentlich recht gut. Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ? Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.
Bei den Suchmaschinen welche einen Index auf die Seite haben, sind nämlich nur die Seiten indexiert, welche ich beim Frameset öffne.

Wie kann ich diesem Zustand abhelfen ?

Gruss
Peter

  1. hi

    Die ganze Angelegenheit funktioniert eigentlich recht gut.

    wenn du es als "recht gut" ansiehst, dass jeder neunte deine Seite nicht nutzen kann.....

    Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?

    es kann  nicht nur, es ist so und wird auch immer so bleiben.

    Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.

    "nur 12%" *sprachlos bin*
    hier regen sich schon Leute auf, wenn man für einen 5%-browser (NN4) keine extra Version schreibt...

    Grüße aus Bleckede

    Kai

    1. Tach auch,

      Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?

      es kann  nicht nur, es ist so und wird auch immer so bleiben.

      Was veranlasst Dich zu dieser absoluten Aussage? Bist Du Hellseher? Wenn ja haette ich gerne die Lottozahlen fuer die naechsten drei Monate...

      Gruss,
      Armin

      1. Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?

        es kann  nicht nur, es ist so und wird auch immer so bleiben.

        Was veranlasst Dich zu dieser absoluten Aussage?

        Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.

        Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?

        Gruß,
          soenk.e

        1. Tach auch,

          Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.

          Hae? Kannst Du mir erklaeren wo ich diese Aussage von mir gegeben habe? Kannst Du mir zeigen wo ich auf meinen Seiten einen <noscript>-Bereich einbauen sollte? Vielleicht solltest Du mal den Thread richtig verfolgen bevor Du solche Aussagen niederschreibst. Schon ein wenig traurig, finde ich ;-)

          Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?

          Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript basieren. Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft? Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach. Ich wuerde da gar nicht so viel reininterpretieren. Chraeckers Stempelseite braucht der nicht indizieren, die Position der Stempel braucht nicht in den Katalog. Reicht doch wenn der Crawler in der Lage ist sich z.B. durch ein DHTML-Dropdown-Menue zu hangeln. Und um ehrlich zu sein, wuerde mich nicht wundern wenn der Googlebot das bald kann.

          Gruss,
          Armin

          1. Hi Armin,

            Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige
            Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript
            basieren. Warum sollte es nicht jemand schaffen einen Crawler zu
            programmieren der dies schafft?

            weil der Crawler dafür einen vollständigen JavaScript-Interpreter
            bräuchte.
            Aber selbst dann wäre noch das Problem, daß JavaScript auf Dinge
            zugreifen kann, die der Crawler nicht kennt - beispielsweise DOM.
            Eine JavaScript-generierte _kann_ also Links enthalten, die der Crawler
            grundsätzlich niemals selbst berechnen kann - das Problem ist also in
            allgemeiner Form bereits theoretisch nicht lösbar.
            Wenn es aber nur Teil-Lösungen geben kann, ist es für Crawler nicht
            attraktiv, sich damit zu befassen - die Zeit steckt man besser in andere
            Aktivitäten.

            Schließlich ist es ja das Problem des Seitenanbieters, daß er nicht
            gefunden wird ... nicht dasjenige der Suchmaschine, die eh mit dem
            Crawlen des gesamten WWW nicht annähernd nachkommen wird, sich also sehr
            gerne auf gute Seiten beschränken wird.
            Denn die Qualität einer Suchmaschine definiert sich nicht über die Zahl
            ihrer möglichen Ergebnisse, sondern über deren Qualität ...

            Viele Grüße
                  Michael

            1. Tach auch,

              weil der Crawler dafür einen vollständigen JavaScript-Interpreter
              bräuchte.

              Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen einfachen Algorithmus enthalten sollte der zumindest die einfachen und staendig benutzten erkennt (z.B. die fuer Popups).

              Dann spinne ich halt mal ein bisschen weiter: Warum sollte er den nicht in irgendeiner Form bekommen? Vielleicht entwickelt ja irgendwer eine vollkommen neue Crawler-Technologie wo die Daten irgendwie auf dem Server verarbeitet werden so dass er den Interpreter nicht mitschicken muss.

              das Problem ist also in allgemeiner Form bereits theoretisch nicht lösbar.

              Nach gegenwaertigem Stand der Theorie. Kannst Du mir garantieren dass das immer so bleibt? Denn dann ist die Erde eine Scheibe und sich schneller als 20km/h zu bewegen ist toedlich...

              Wenn es aber nur Teil-Lösungen geben kann, ist es für Crawler nicht
              attraktiv, sich damit zu befassen - die Zeit steckt man besser in andere
              Aktivitäten.

              Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion einbauen die zumindest die Standardversionen erkennt und den Links daraus folgt? Damit haette er einen Wettbewerbsvorsprung.

              Denn die Qualität einer Suchmaschine definiert sich nicht über die Zahl
              ihrer möglichen Ergebnisse, sondern über deren Qualität ...

              OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen sein, also die die Suchmaschine eigentlich haben will...

              Gruss,
              Armin
              (ohne Javascript-Links)

              1. Hi Armin,

                Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen
                einfachen Algorithmus enthalten sollte der zumindest die einfachen
                und staendig benutzten erkennt (z.B. die fuer Popups).

                psssst - sonst baut M$ das am Ende noch irgendwo ein ... ;-)

                Dann spinne ich halt mal ein bisschen weiter: Warum sollte er den
                nicht in irgendeiner Form bekommen? Vielleicht entwickelt ja
                irgendwer eine vollkommen neue Crawler-Technologie wo die Daten
                irgendwie auf dem Server verarbeitet werden so dass er den Inter-
                preter nicht mitschicken muss.

                Das nützt nichts. Es geht doch nicht darum, den Interpreter mitzu-
                schicken. Es geht darum, daß selbst der beste Interpreter nicht etwas
                interpretieren kann, was er nicht hat. Der Crawser weiß einfach nicht,
                wie die Seite aussehen sollte, wenn sie auf dem Client abhängig von
                Informationen, die er nicht hat, dynamisch berechnet wird.
                Der Link könnte durch einen Zufallszahlengenerator auf dem Client
                berechnet werden ... durch etwas, das einen Cookie ausliest ... es
                gibt viele perverse Möglichkeiten.

                Und das Schlimmste: Um das Ergebnis eines Programmlaufes zu bestimmen,
                mußt Du das Programm laufen lassen. Was aber, wenn das Programm nie zu
                einem Ende kommt? Wann merkst Du das? Genau - nie. Das ist in der Lite-
                ratur als "Halteproblem" beschrieben - google mal ein bißchen ...

                das Problem ist also in allgemeiner Form bereits theoretisch
                nicht lösbar.
                Nach gegenwaertigem Stand der Theorie. Kannst Du mir garantieren dass
                das immer so bleibt?

                Eine Information auszuwerten, die nicht vorhanden ist, gehört nicht zu
                den einfachen Dingen auf dieser Welt. Diese Theorie wird sich nicht so
                schnell ändern. ;-)

                Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion
                einbauen die zumindest die Standardversionen erkennt und den Links
                daraus folgt? Damit haette er einen Wettbewerbsvorsprung.

                Das bezweifele ich eben. Er hätte dann mehr Müllseiten in seinem Index.
                Sonst nichts.

                OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die
                Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen
                sein, also die die Suchmaschine eigentlich haben will...

                Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen umzugehen
                haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_ diese Seiten die
                hochwertigen sein sollen, nicht so wahnsinnig hoch ... ;-)

                Viele Grüße
                      Michael

                1. Tach auch,

                  Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen
                  einfachen Algorithmus enthalten sollte der zumindest die einfachen
                  und staendig benutzten erkennt (z.B. die fuer Popups).

                  psssst - sonst baut M$ das am Ende noch irgendwo ein ... ;-)

                  Huch! Ob CK hier wohl schnell einen kleinen Cloaking-Mechanismus ins Forum einbauen kann? So dass MS dieses Posting nicht sehen kann?

                  Und das Schlimmste: Um das Ergebnis eines Programmlaufes zu bestimmen,
                  mußt Du das Programm laufen lassen. Was aber, wenn das Programm nie zu
                  einem Ende kommt? Wann merkst Du das? Genau - nie. Das ist in der Lite-
                  ratur als "Halteproblem" beschrieben - google mal ein bißchen ...

                  OK, Du hast mich ueberzeugt, ich weiss nicht ob ich mich traue das nachzulesen... Bleibt mir nur die Hoffnung auf KI ;-)

                  Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion
                  einbauen die zumindest die Standardversionen erkennt und den Links
                  daraus folgt? Damit haette er einen Wettbewerbsvorsprung.

                  Das bezweifele ich eben. Er hätte dann mehr Müllseiten in seinem Index.
                  Sonst nichts.

                  Was ich wieder bezweifle. Muellseiten definieren sich nicht unbedingt nach der benutzten Technik.

                  OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die
                  Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen
                  sein, also die die Suchmaschine eigentlich haben will...

                  Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen umzugehen
                  haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_ diese Seiten die
                  hochwertigen sein sollen, nicht so wahnsinnig hoch ... ;-)

                  Das ist eben der Knackpunkt. Hier stimmen wir nur teilweise ueberein. Ich glaube naemlich das es durchaus eine hohe Anzahl dieser Seiten gibt. Leute die in der Lage sind ein Thema toll darzustellen oder wirklich was zu sagen haben (vielleicht weil sie geniale Fotografen sind, vielleicht weil sie geniale Autoren sind die faszinierende Geschichten schreiben koennen, was weiss ich) sind nicht notwendigerweise tolle HTML-Kuenstler. Sollten sie in meinen Augen auch gar nicht unbedingt sein, denn sie sollten sich auf ihre Staerken besinnen. Andererseits kenne ich genuegend Leute die technisch top sind aber nicht in der Lage sind etwas vernuenftig rueberzubringen. Oder auch sonst kaum Interessen haben die fuer die Allgemeinheit (die ja die Suchmaschinen benutzt) interessant sind.

                  Gruss,
                  Armin

                  1. Hi Armin,

                    Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen
                    umzugehen haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_
                    diese Seiten die hochwertigen sein sollen, nicht so wahnsinnig
                    hoch ... ;-)
                    Das ist eben der Knackpunkt. Hier stimmen wir nur teilweise ueberein.
                    Ich glaube naemlich das es durchaus eine hohe Anzahl dieser Seiten
                    gibt. Leute die in der Lage sind ein Thema toll darzustellen oder
                    wirklich was zu sagen haben (vielleicht weil sie geniale Fotografen
                    sind, vielleicht weil sie geniale Autoren sind die faszinierende
                    Geschichten schreiben koennen, was weiss ich) sind nicht notwendi-
                    gerweise tolle HTML-Kuenstler. Sollten sie in meinen Augen auch gar
                    nicht unbedingt sein, denn sie sollten sich auf ihre Staerken
                    besinnen. Andererseits kenne ich genuegend Leute die technisch top
                    sind aber nicht in der Lage sind etwas vernuenftig rueberzubringen.
                    Oder auch sonst kaum Interessen haben die fuer die Allgemeinheit (die
                    ja die Suchmaschinen benutzt) interessant sind.

                    der Sinn der Sache ist eben, daß beide Seiten sie zusammen tun. Ein
                    wirklich guter Dichter oder Gestalter, der seine Werke der Welt prä-
                    sentieren möchte, tut gut daran, jemanden zu fragen, der sich mit dem
                    Thema "präsentieren" auskennt. (Ein erfolgreicher Musiker preßt seine
                    CDs ja in der Regel auch nicht selber, und ein Korrespondent steht
                    nicht an der Druckerpresse.) Fehlendes Know-How kann man einkaufen.

                    Und Erreichbarkeit in Suchmaschinen ist zweifellos ein Teil dieses
                    Aspektes - denn wie sonst wäre erklärbar, daß es so viele kosten-
                    pflichtige Angebote in diesem Bereich gibt? Offensichtlich haben
                    hinreichend viele Leute begriffen, daß sie hier eine Nachfrage haben.

                    Das bezieht sich aber gleichermaßen auch auf andere Aspekte.
                    Ein gutes Web-Angebot muß sich meiner Meinung nach auch mit Aspekten
                    wie Ladezeiten für Besucher befassen. In den ersten 15 Sekunden ent-
                    scheidet sich oftmals, ob der Besucher sich enttäuscht abwendet oder
                    nicht. Was nützt einem Künstler das schönste Bild, wenn er es als
                    2-MB-Bitmap durch mein 56K-Modem zu quälen versucht? Ein Bild mit der
                    halben ästhetischen Aussagekraft, aber 97% weniger Traffic hätte mich
                    vielleicht erreicht ...

                    Oder nimm ein Posting hier im Forum. Wenn jemand sein Problem zwar
                    verstanden hat, es aber sprachlich nicht rüberbringen kann, wird er
                    mit seiner "Präsentation" erheblich mehr Probleme haben, als wenn er
                    völlig ahnungslos, aber lernwillig und diskussionsfähig ist.
                    Erneut ist es der Transportweg, der den Ausschlag über den Erfolg der
                    Aktion geben kann - unabhängig vom Inhalt. Das ist so, wie wenn Du
                    einen Liebesbrief ohne Briefmarke in den Postkasten wirfst ...

                    Und bei den Suchmaschinen ist es eben nicht anders.

                    Viele Grüße
                          Michael

                    1. Hi Michael,

                      Ich glaube wir sind da gar nicht so weit auseinander:

                      der Sinn der Sache ist eben, daß beide Seiten sie zusammen tun. Ein
                      wirklich guter Dichter oder Gestalter, der seine Werke der Welt prä-
                      sentieren möchte, tut gut daran, jemanden zu fragen, der sich mit dem
                      Thema "präsentieren" auskennt. (Ein erfolgreicher Musiker preßt seine
                      CDs ja in der Regel auch nicht selber, und ein Korrespondent steht
                      nicht an der Druckerpresse.) Fehlendes Know-How kann man einkaufen.

                      Das wuerde ich mir auch wuenschen, nur passiert es halt leider nicht immer. Zum Teil bedingt durch die Software-Industrie und den generellen Internet-Hype a la "Jetzt kann jeder publizieren" und "Ihre Webpraesenz in 24Stunden". Und das glauben die dann halt und machen es. Genauso wie als die ganzen Desktop-Publishing Sachen aufkamen und auf einmal jeder seine eigene Flugblaetter machen konnte. Wo auch mir als Laie auffiel wie viel Muell da produziert wurde mit 83 verschiedenen Schriften und so...

                      Und Erreichbarkeit in Suchmaschinen ist zweifellos ein Teil dieses
                      Aspektes - denn wie sonst wäre erklärbar, daß es so viele kosten-
                      pflichtige Angebote in diesem Bereich gibt? Offensichtlich haben
                      hinreichend viele Leute begriffen, daß sie hier eine Nachfrage haben.

                      Wobei das zumindest z.T. auch nur Scharlatanerie ist, oder bringt es etwas in 100 Suchmaschinen eingetragen zu werden wenn 99% von den grossen 3-5 kommen? Aber ansonsten gebe ich Dir Recht, der Markt ist auf jeden Fall da.

                      Das bezieht sich aber gleichermaßen auch auf andere Aspekte.
                      Ein gutes Web-Angebot muß sich meiner Meinung nach auch mit Aspekten
                      wie Ladezeiten für Besucher befassen. In den ersten 15 Sekunden ent-
                      scheidet sich oftmals, ob der Besucher sich enttäuscht abwendet oder
                      nicht. Was nützt einem Künstler das schönste Bild, wenn er es als
                      2-MB-Bitmap durch mein 56K-Modem zu quälen versucht? Ein Bild mit der
                      halben ästhetischen Aussagekraft, aber 97% weniger Traffic hätte mich
                      vielleicht erreicht ...

                      Auch hier volle Uebereinstimmung, nur leider, siehe oben...

                      Gruss,
                      Armin

          2. Moin

            Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft? Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach.

            So einfach ist das leider nicht. Mit JavaScript kann man viel Unsinn anstellen und vor allem sind die Kombinationsmöglichkeiten, um einen im Browser funktionierenden Link darzustellen, fast unendlich. Man könnte mit viel Mühe vielleicht hinterherprogrammieren, aber warum sollte ein Suchmaschinenbetreiber das tun? Allein der zusätzliche Rechenaufwand, der bei Millionen von Seiten und Milliarden von Kombinationsmöglichkeiten auftreten würde, würde enorme Summen an zusätzlicher Hardware verschlingen. Und die Suchergebnisse würden dadurch nicht besser.

            Die Energie steckt man lieber in die Rankingtechnologie und Spam Abwehr. Und verlangt von allen, die Suchmaschinen passiv nutzen wollen, also gefunden weden wollen, dass sie sich an minimale Regeln halten, die sogar einfacher zzu realisieren sind als komplexe JS Navigationen.

            gruss, stefan

          3. Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.

            Hae? Kannst Du mir erklaeren wo ich diese Aussage von mir gegeben habe? Kannst Du mir zeigen wo ich auf meinen Seiten einen <noscript>-Bereich einbauen sollte? Vielleicht solltest Du mal den Thread richtig verfolgen bevor Du solche Aussagen niederschreibst.

            Bitte vielmals um Verzeihung, falscher Adressat. An der Aussage ändert das aber nichts.

            Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?

            Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript basieren. Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft?

            Ich habe nicht gesagt, daß das unmöglich wäre ("kann man [..] nicht ausschließen"), ich habe nur gesagt, daß ich das für weniger wahrscheinlich halte.

            Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach.

            Na, wenn das so einfach ist, kannst Du es ja mal machen :) Wobei ich mich frage, warum jemand eine Programmiersprache benutzt, wenn er damit Bereiche erstellt, die sich sowieso nicht ändern.. Ich sehe das nicht ganz so mal-eben-einfach-hin-programmiert und könnte mir vorstellen, daß ein nicht unerheblicher Teil der Seiten weiterhin nicht indizierbar bleibt. Und da liegt der Haken.

            Wie gesagt: Es ging mir nicht um ein absolutes Ja oder Nein, sondern um die Frage, ob sich die Arbeit für eine Handvoll Seiten lohnt. Wenn sich die Betreiber nichtmal die Mühe machen, eine Alternative zur Navigation anzubieten, wie wertvoll oder interessant mag dann erst der Rest aussehen? Ich sehe zwischen durchdachter technischer Umsetzung und durchdachtem Inhalt jedenfalls einen direkten Zusammenhang.

            Schönen Abend,
              soenk.e

  2. Moin Moin !

    Kai hat recht. Aber er hat Dein Problem nicht gelöst.

    Erster Ansatz:

    Schreibe ein Script, daß alle Deine HTML-Dateien einsammelt, deren Titel extrahiert, und am Ende daraus eine Seite mit Links auf alle Deine HTML-Seiten baut (den Titel jeweils als Link-Text). Diese Seite bietest Du den Suchmaschinen als Futter an, indem Du z.B. unten auf jeder Seite einen kleinen Link (z.B. nur ein "." mit style="text-decoration:none") setzt, dem die Suchmaschinen folgen. Vielleicht sogar in einem <NOSCRIPT>-Bereich.

    Sowas ähnliches findest Du auch auf meiner Homepage, nur wird bei mir die Suchmaschinen-Futter-Seite automatisch generiert, wie der Rest meiner Seiten auch. Schalte einfach mal Javascript ab, bevor Du meine Homepage ansiehst.

    Alexander

    1. Hi

      Schreibe ein Script, daß alle Deine HTML-Dateien einsammelt, deren Titel extrahiert, und am Ende daraus eine Seite mit Links auf alle Deine HTML-Seiten baut (den Titel jeweils als Link-Text). Diese Seite bietest Du den Suchmaschinen als Futter an, indem Du z.B. unten auf jeder Seite einen kleinen Link (z.B. nur ein "." mit style="text-decoration:none") setzt, dem die Suchmaschinen folgen. Vielleicht sogar in einem <NOSCRIPT>-Bereich.

      Ich denke, dass mein Problem bereits mit dem Hinzufügen eines <noscript>-Bereiches gelöst ist. Dort zeige ich einfach die Links an, welche ohne JS nicht angezeigt werden.

      Besten Dank

      Peter

    2. Hi Alexander,

      Schalte einfach mal Javascript ab, bevor Du meine Homepage ansiehst.

      mit ist es dann doch bequemer ;) Nur ein kleiner Tip, etwas off-topic: Der gemusterte Hintergrund macht das Lesen äußerst anstrengend. Ein dezentes, helles Grau wäre IMHO besser. Die "Augenfolter" habe ich aufgrund des Gewöhnungseffektes unbeschadet überstanden *fg*

      Übrigens wird das JS-Menü auch neu aufgebaut, wenn man lediglich einen Link klickt, das Verzeichnis aber nicht wechselt. Ist das beabsichtigt?

      LG Orlando

  3. Hi

    Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?

    Ja, dem ist so!

    Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.

    Verstehe ich nicht, war mir nicht so, daß HTML genau dafür da ist?
    Zumal auch JavaScript in dem Falle nur HTML-Output erzeugt.
    Warum dann die Links nicht gleich mit HTML erzeugen?

    Wie kann ich diesem Zustand abhelfen ?

    Schreibe die Links pur in HTML, oder, falls es notwendig sein sollte,
    sie dynamisch zu erzeugen, benutze eine serverseitige Scriptsprache
    um dies zu erledigen.
    Das funktioniert immer, da im Browser stets der gewünschte HTML-Code
    ankommt (vorausgesetzt, das Skript funktioniert wie gewollt ;-) ).

    Tschüß, Auge