Brauchen Suchmaschinen Links ?
Peter Meier
- html
0 Kai Lahmann0 Armin G.
0 Alexander Foken0 Peter Meier0 Orlando
0 Auge
Hi
Ich betreue zurzeit eine Seite, welche aus statischem HTML besteht. Die Navigation dieser Seiten funktioniert jedoch über JS. Die ganze Angelegenheit funktioniert eigentlich recht gut. Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ? Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.
Bei den Suchmaschinen welche einen Index auf die Seite haben, sind nämlich nur die Seiten indexiert, welche ich beim Frameset öffne.
Wie kann ich diesem Zustand abhelfen ?
Gruss
Peter
hi
Die ganze Angelegenheit funktioniert eigentlich recht gut.
wenn du es als "recht gut" ansiehst, dass jeder neunte deine Seite nicht nutzen kann.....
Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?
es kann nicht nur, es ist so und wird auch immer so bleiben.
Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.
"nur 12%" *sprachlos bin*
hier regen sich schon Leute auf, wenn man für einen 5%-browser (NN4) keine extra Version schreibt...
Grüße aus Bleckede
Kai
Tach auch,
Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?
es kann nicht nur, es ist so und wird auch immer so bleiben.
Was veranlasst Dich zu dieser absoluten Aussage? Bist Du Hellseher? Wenn ja haette ich gerne die Lottozahlen fuer die naechsten drei Monate...
Gruss,
Armin
Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?
es kann nicht nur, es ist so und wird auch immer so bleiben.
Was veranlasst Dich zu dieser absoluten Aussage?
Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.
Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?
Gruß,
soenk.e
Tach auch,
Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.
Hae? Kannst Du mir erklaeren wo ich diese Aussage von mir gegeben habe? Kannst Du mir zeigen wo ich auf meinen Seiten einen <noscript>-Bereich einbauen sollte? Vielleicht solltest Du mal den Thread richtig verfolgen bevor Du solche Aussagen niederschreibst. Schon ein wenig traurig, finde ich ;-)
Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?
Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript basieren. Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft? Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach. Ich wuerde da gar nicht so viel reininterpretieren. Chraeckers Stempelseite braucht der nicht indizieren, die Position der Stempel braucht nicht in den Katalog. Reicht doch wenn der Crawler in der Lage ist sich z.B. durch ein DHTML-Dropdown-Menue zu hangeln. Und um ehrlich zu sein, wuerde mich nicht wundern wenn der Googlebot das bald kann.
Gruss,
Armin
Hi Armin,
Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige
Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript
basieren. Warum sollte es nicht jemand schaffen einen Crawler zu
programmieren der dies schafft?
weil der Crawler dafür einen vollständigen JavaScript-Interpreter
bräuchte.
Aber selbst dann wäre noch das Problem, daß JavaScript auf Dinge
zugreifen kann, die der Crawler nicht kennt - beispielsweise DOM.
Eine JavaScript-generierte _kann_ also Links enthalten, die der Crawler
grundsätzlich niemals selbst berechnen kann - das Problem ist also in
allgemeiner Form bereits theoretisch nicht lösbar.
Wenn es aber nur Teil-Lösungen geben kann, ist es für Crawler nicht
attraktiv, sich damit zu befassen - die Zeit steckt man besser in andere
Aktivitäten.
Schließlich ist es ja das Problem des Seitenanbieters, daß er nicht
gefunden wird ... nicht dasjenige der Suchmaschine, die eh mit dem
Crawlen des gesamten WWW nicht annähernd nachkommen wird, sich also sehr
gerne auf gute Seiten beschränken wird.
Denn die Qualität einer Suchmaschine definiert sich nicht über die Zahl
ihrer möglichen Ergebnisse, sondern über deren Qualität ...
Viele Grüße
Michael
Tach auch,
weil der Crawler dafür einen vollständigen JavaScript-Interpreter
bräuchte.
Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen einfachen Algorithmus enthalten sollte der zumindest die einfachen und staendig benutzten erkennt (z.B. die fuer Popups).
Dann spinne ich halt mal ein bisschen weiter: Warum sollte er den nicht in irgendeiner Form bekommen? Vielleicht entwickelt ja irgendwer eine vollkommen neue Crawler-Technologie wo die Daten irgendwie auf dem Server verarbeitet werden so dass er den Interpreter nicht mitschicken muss.
das Problem ist also in allgemeiner Form bereits theoretisch nicht lösbar.
Nach gegenwaertigem Stand der Theorie. Kannst Du mir garantieren dass das immer so bleibt? Denn dann ist die Erde eine Scheibe und sich schneller als 20km/h zu bewegen ist toedlich...
Wenn es aber nur Teil-Lösungen geben kann, ist es für Crawler nicht
attraktiv, sich damit zu befassen - die Zeit steckt man besser in andere
Aktivitäten.
Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion einbauen die zumindest die Standardversionen erkennt und den Links daraus folgt? Damit haette er einen Wettbewerbsvorsprung.
Denn die Qualität einer Suchmaschine definiert sich nicht über die Zahl
ihrer möglichen Ergebnisse, sondern über deren Qualität ...
OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen sein, also die die Suchmaschine eigentlich haben will...
Gruss,
Armin
(ohne Javascript-Links)
Hi Armin,
Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen
einfachen Algorithmus enthalten sollte der zumindest die einfachen
und staendig benutzten erkennt (z.B. die fuer Popups).
psssst - sonst baut M$ das am Ende noch irgendwo ein ... ;-)
Dann spinne ich halt mal ein bisschen weiter: Warum sollte er den
nicht in irgendeiner Form bekommen? Vielleicht entwickelt ja
irgendwer eine vollkommen neue Crawler-Technologie wo die Daten
irgendwie auf dem Server verarbeitet werden so dass er den Inter-
preter nicht mitschicken muss.
Das nützt nichts. Es geht doch nicht darum, den Interpreter mitzu-
schicken. Es geht darum, daß selbst der beste Interpreter nicht etwas
interpretieren kann, was er nicht hat. Der Crawser weiß einfach nicht,
wie die Seite aussehen sollte, wenn sie auf dem Client abhängig von
Informationen, die er nicht hat, dynamisch berechnet wird.
Der Link könnte durch einen Zufallszahlengenerator auf dem Client
berechnet werden ... durch etwas, das einen Cookie ausliest ... es
gibt viele perverse Möglichkeiten.
Und das Schlimmste: Um das Ergebnis eines Programmlaufes zu bestimmen,
mußt Du das Programm laufen lassen. Was aber, wenn das Programm nie zu
einem Ende kommt? Wann merkst Du das? Genau - nie. Das ist in der Lite-
ratur als "Halteproblem" beschrieben - google mal ein bißchen ...
das Problem ist also in allgemeiner Form bereits theoretisch
nicht lösbar.
Nach gegenwaertigem Stand der Theorie. Kannst Du mir garantieren dass
das immer so bleibt?
Eine Information auszuwerten, die nicht vorhanden ist, gehört nicht zu
den einfachen Dingen auf dieser Welt. Diese Theorie wird sich nicht so
schnell ändern. ;-)
Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion
einbauen die zumindest die Standardversionen erkennt und den Links
daraus folgt? Damit haette er einen Wettbewerbsvorsprung.
Das bezweifele ich eben. Er hätte dann mehr Müllseiten in seinem Index.
Sonst nichts.
OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die
Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen
sein, also die die Suchmaschine eigentlich haben will...
Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen umzugehen
haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_ diese Seiten die
hochwertigen sein sollen, nicht so wahnsinnig hoch ... ;-)
Viele Grüße
Michael
Tach auch,
Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen
einfachen Algorithmus enthalten sollte der zumindest die einfachen
und staendig benutzten erkennt (z.B. die fuer Popups).
psssst - sonst baut M$ das am Ende noch irgendwo ein ... ;-)
Huch! Ob CK hier wohl schnell einen kleinen Cloaking-Mechanismus ins Forum einbauen kann? So dass MS dieses Posting nicht sehen kann?
Und das Schlimmste: Um das Ergebnis eines Programmlaufes zu bestimmen,
mußt Du das Programm laufen lassen. Was aber, wenn das Programm nie zu
einem Ende kommt? Wann merkst Du das? Genau - nie. Das ist in der Lite-
ratur als "Halteproblem" beschrieben - google mal ein bißchen ...
OK, Du hast mich ueberzeugt, ich weiss nicht ob ich mich traue das nachzulesen... Bleibt mir nur die Hoffnung auf KI ;-)
Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion
einbauen die zumindest die Standardversionen erkennt und den Links
daraus folgt? Damit haette er einen Wettbewerbsvorsprung.
Das bezweifele ich eben. Er hätte dann mehr Müllseiten in seinem Index.
Sonst nichts.
Was ich wieder bezweifle. Muellseiten definieren sich nicht unbedingt nach der benutzten Technik.
OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die
Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen
sein, also die die Suchmaschine eigentlich haben will...
Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen umzugehen
haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_ diese Seiten die
hochwertigen sein sollen, nicht so wahnsinnig hoch ... ;-)
Das ist eben der Knackpunkt. Hier stimmen wir nur teilweise ueberein. Ich glaube naemlich das es durchaus eine hohe Anzahl dieser Seiten gibt. Leute die in der Lage sind ein Thema toll darzustellen oder wirklich was zu sagen haben (vielleicht weil sie geniale Fotografen sind, vielleicht weil sie geniale Autoren sind die faszinierende Geschichten schreiben koennen, was weiss ich) sind nicht notwendigerweise tolle HTML-Kuenstler. Sollten sie in meinen Augen auch gar nicht unbedingt sein, denn sie sollten sich auf ihre Staerken besinnen. Andererseits kenne ich genuegend Leute die technisch top sind aber nicht in der Lage sind etwas vernuenftig rueberzubringen. Oder auch sonst kaum Interessen haben die fuer die Allgemeinheit (die ja die Suchmaschinen benutzt) interessant sind.
Gruss,
Armin
Hi Armin,
Wenn deren Anbieter nicht mal wissen, wie sie mit Suchmaschinen
umzugehen haben, ist die Wahrscheinlichkeit, daß _ausgerechnet_
diese Seiten die hochwertigen sein sollen, nicht so wahnsinnig
hoch ... ;-)
Das ist eben der Knackpunkt. Hier stimmen wir nur teilweise ueberein.
Ich glaube naemlich das es durchaus eine hohe Anzahl dieser Seiten
gibt. Leute die in der Lage sind ein Thema toll darzustellen oder
wirklich was zu sagen haben (vielleicht weil sie geniale Fotografen
sind, vielleicht weil sie geniale Autoren sind die faszinierende
Geschichten schreiben koennen, was weiss ich) sind nicht notwendi-
gerweise tolle HTML-Kuenstler. Sollten sie in meinen Augen auch gar
nicht unbedingt sein, denn sie sollten sich auf ihre Staerken
besinnen. Andererseits kenne ich genuegend Leute die technisch top
sind aber nicht in der Lage sind etwas vernuenftig rueberzubringen.
Oder auch sonst kaum Interessen haben die fuer die Allgemeinheit (die
ja die Suchmaschinen benutzt) interessant sind.
der Sinn der Sache ist eben, daß beide Seiten sie zusammen tun. Ein
wirklich guter Dichter oder Gestalter, der seine Werke der Welt prä-
sentieren möchte, tut gut daran, jemanden zu fragen, der sich mit dem
Thema "präsentieren" auskennt. (Ein erfolgreicher Musiker preßt seine
CDs ja in der Regel auch nicht selber, und ein Korrespondent steht
nicht an der Druckerpresse.) Fehlendes Know-How kann man einkaufen.
Und Erreichbarkeit in Suchmaschinen ist zweifellos ein Teil dieses
Aspektes - denn wie sonst wäre erklärbar, daß es so viele kosten-
pflichtige Angebote in diesem Bereich gibt? Offensichtlich haben
hinreichend viele Leute begriffen, daß sie hier eine Nachfrage haben.
Das bezieht sich aber gleichermaßen auch auf andere Aspekte.
Ein gutes Web-Angebot muß sich meiner Meinung nach auch mit Aspekten
wie Ladezeiten für Besucher befassen. In den ersten 15 Sekunden ent-
scheidet sich oftmals, ob der Besucher sich enttäuscht abwendet oder
nicht. Was nützt einem Künstler das schönste Bild, wenn er es als
2-MB-Bitmap durch mein 56K-Modem zu quälen versucht? Ein Bild mit der
halben ästhetischen Aussagekraft, aber 97% weniger Traffic hätte mich
vielleicht erreicht ...
Oder nimm ein Posting hier im Forum. Wenn jemand sein Problem zwar
verstanden hat, es aber sprachlich nicht rüberbringen kann, wird er
mit seiner "Präsentation" erheblich mehr Probleme haben, als wenn er
völlig ahnungslos, aber lernwillig und diskussionsfähig ist.
Erneut ist es der Transportweg, der den Ausschlag über den Erfolg der
Aktion geben kann - unabhängig vom Inhalt. Das ist so, wie wenn Du
einen Liebesbrief ohne Briefmarke in den Postkasten wirfst ...
Und bei den Suchmaschinen ist es eben nicht anders.
Viele Grüße
Michael
Hi Michael,
Ich glaube wir sind da gar nicht so weit auseinander:
der Sinn der Sache ist eben, daß beide Seiten sie zusammen tun. Ein
wirklich guter Dichter oder Gestalter, der seine Werke der Welt prä-
sentieren möchte, tut gut daran, jemanden zu fragen, der sich mit dem
Thema "präsentieren" auskennt. (Ein erfolgreicher Musiker preßt seine
CDs ja in der Regel auch nicht selber, und ein Korrespondent steht
nicht an der Druckerpresse.) Fehlendes Know-How kann man einkaufen.
Das wuerde ich mir auch wuenschen, nur passiert es halt leider nicht immer. Zum Teil bedingt durch die Software-Industrie und den generellen Internet-Hype a la "Jetzt kann jeder publizieren" und "Ihre Webpraesenz in 24Stunden". Und das glauben die dann halt und machen es. Genauso wie als die ganzen Desktop-Publishing Sachen aufkamen und auf einmal jeder seine eigene Flugblaetter machen konnte. Wo auch mir als Laie auffiel wie viel Muell da produziert wurde mit 83 verschiedenen Schriften und so...
Und Erreichbarkeit in Suchmaschinen ist zweifellos ein Teil dieses
Aspektes - denn wie sonst wäre erklärbar, daß es so viele kosten-
pflichtige Angebote in diesem Bereich gibt? Offensichtlich haben
hinreichend viele Leute begriffen, daß sie hier eine Nachfrage haben.
Wobei das zumindest z.T. auch nur Scharlatanerie ist, oder bringt es etwas in 100 Suchmaschinen eingetragen zu werden wenn 99% von den grossen 3-5 kommen? Aber ansonsten gebe ich Dir Recht, der Markt ist auf jeden Fall da.
Das bezieht sich aber gleichermaßen auch auf andere Aspekte.
Ein gutes Web-Angebot muß sich meiner Meinung nach auch mit Aspekten
wie Ladezeiten für Besucher befassen. In den ersten 15 Sekunden ent-
scheidet sich oftmals, ob der Besucher sich enttäuscht abwendet oder
nicht. Was nützt einem Künstler das schönste Bild, wenn er es als
2-MB-Bitmap durch mein 56K-Modem zu quälen versucht? Ein Bild mit der
halben ästhetischen Aussagekraft, aber 97% weniger Traffic hätte mich
vielleicht erreicht ...
Auch hier volle Uebereinstimmung, nur leider, siehe oben...
Gruss,
Armin
Moin
Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft? Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach.
So einfach ist das leider nicht. Mit JavaScript kann man viel Unsinn anstellen und vor allem sind die Kombinationsmöglichkeiten, um einen im Browser funktionierenden Link darzustellen, fast unendlich. Man könnte mit viel Mühe vielleicht hinterherprogrammieren, aber warum sollte ein Suchmaschinenbetreiber das tun? Allein der zusätzliche Rechenaufwand, der bei Millionen von Seiten und Milliarden von Kombinationsmöglichkeiten auftreten würde, würde enorme Summen an zusätzlicher Hardware verschlingen. Und die Suchergebnisse würden dadurch nicht besser.
Die Energie steckt man lieber in die Rankingtechnologie und Spam Abwehr. Und verlangt von allen, die Suchmaschinen passiv nutzen wollen, also gefunden weden wollen, dass sie sich an minimale Regeln halten, die sogar einfacher zzu realisieren sind als komplexe JS Navigationen.
gruss, stefan
Die Aussage war wahrscheinlich ungefähr genauso zu genießen, wie Deine Einstellung, daß nicht nur exakt 12% kein Javascript haben, sondern diese 12% auch in Deinen Augen so wert- und nutzlose Zeitgenossen sind, daß Du nichtmal einen klitzekleinen <noscript>-Bereich eingebaut hast. Schon ein wenig traurig, finde ich.
Hae? Kannst Du mir erklaeren wo ich diese Aussage von mir gegeben habe? Kannst Du mir zeigen wo ich auf meinen Seiten einen <noscript>-Bereich einbauen sollte? Vielleicht solltest Du mal den Thread richtig verfolgen bevor Du solche Aussagen niederschreibst.
Bitte vielmals um Verzeihung, falscher Adressat. An der Aussage ändert das aber nichts.
Davon mal abgesehen kann man zwar nicht ausschließen, daß irgendein Suchmaschinenbetreiber mal auf die Idee kommt, Javascript-Interpreter einzubauen, aber so sonderlich wahrscheinlich ist das nicht, denn: Wie bitteschön willst Du Seiten, deren Inhalt sich zum Beispiel bei Mausbewegungen ändert, indizieren?
Habe ich das behauptet? Das Grundproblem war es dass gegenwaertige Crawler nicht in der Lage sind Links zu verfolgen die auf Javascript basieren. Warum sollte es nicht jemand schaffen einen Crawler zu programmieren der dies schafft?
Ich habe nicht gesagt, daß das unmöglich wäre ("kann man [..] nicht ausschließen"), ich habe nur gesagt, daß ich das für weniger wahrscheinlich halte.
Was dann indiziert wird ist ein vollkommen anderes Thema. Der Crawler braucht ja dann nur das zu indizieren was sich nicht veraendert. Ganz einfach.
Na, wenn das so einfach ist, kannst Du es ja mal machen :) Wobei ich mich frage, warum jemand eine Programmiersprache benutzt, wenn er damit Bereiche erstellt, die sich sowieso nicht ändern.. Ich sehe das nicht ganz so mal-eben-einfach-hin-programmiert und könnte mir vorstellen, daß ein nicht unerheblicher Teil der Seiten weiterhin nicht indizierbar bleibt. Und da liegt der Haken.
Wie gesagt: Es ging mir nicht um ein absolutes Ja oder Nein, sondern um die Frage, ob sich die Arbeit für eine Handvoll Seiten lohnt. Wenn sich die Betreiber nichtmal die Mühe machen, eine Alternative zur Navigation anzubieten, wie wertvoll oder interessant mag dann erst der Rest aussehen? Ich sehe zwischen durchdachter technischer Umsetzung und durchdachtem Inhalt jedenfalls einen direkten Zusammenhang.
Schönen Abend,
soenk.e
Moin Moin !
Kai hat recht. Aber er hat Dein Problem nicht gelöst.
Erster Ansatz:
Schreibe ein Script, daß alle Deine HTML-Dateien einsammelt, deren Titel extrahiert, und am Ende daraus eine Seite mit Links auf alle Deine HTML-Seiten baut (den Titel jeweils als Link-Text). Diese Seite bietest Du den Suchmaschinen als Futter an, indem Du z.B. unten auf jeder Seite einen kleinen Link (z.B. nur ein "." mit style="text-decoration:none") setzt, dem die Suchmaschinen folgen. Vielleicht sogar in einem <NOSCRIPT>-Bereich.
Sowas ähnliches findest Du auch auf meiner Homepage, nur wird bei mir die Suchmaschinen-Futter-Seite automatisch generiert, wie der Rest meiner Seiten auch. Schalte einfach mal Javascript ab, bevor Du meine Homepage ansiehst.
Alexander
Hi
Schreibe ein Script, daß alle Deine HTML-Dateien einsammelt, deren Titel extrahiert, und am Ende daraus eine Seite mit Links auf alle Deine HTML-Seiten baut (den Titel jeweils als Link-Text). Diese Seite bietest Du den Suchmaschinen als Futter an, indem Du z.B. unten auf jeder Seite einen kleinen Link (z.B. nur ein "." mit style="text-decoration:none") setzt, dem die Suchmaschinen folgen. Vielleicht sogar in einem <NOSCRIPT>-Bereich.
Ich denke, dass mein Problem bereits mit dem Hinzufügen eines <noscript>-Bereiches gelöst ist. Dort zeige ich einfach die Links an, welche ohne JS nicht angezeigt werden.
Besten Dank
Peter
Hi Alexander,
Schalte einfach mal Javascript ab, bevor Du meine Homepage ansiehst.
mit ist es dann doch bequemer ;) Nur ein kleiner Tip, etwas off-topic: Der gemusterte Hintergrund macht das Lesen äußerst anstrengend. Ein dezentes, helles Grau wäre IMHO besser. Die "Augenfolter" habe ich aufgrund des Gewöhnungseffektes unbeschadet überstanden *fg*
Übrigens wird das JS-Menü auch neu aufgebaut, wenn man lediglich einen Link klickt, das Verzeichnis aber nicht wechselt. Ist das beabsichtigt?
LG Orlando
Hi
Jetzt habe ich nur die böse Vorahnung, dass Suchmaschinen, welche ich zu mir "locke" die in JS-verknüpften HTML-Seiten nicht "sehen". Kann das sein ?
Ja, dem ist so!
Ich habe nämlich bis jetzt auf eine reine HTML-Navigation verzichtet, aufgrund der Tatsache, dass nur 12% der user im www JS nicht aktiviert oder gar nicht zur Verfügung haben.
Verstehe ich nicht, war mir nicht so, daß HTML genau dafür da ist?
Zumal auch JavaScript in dem Falle nur HTML-Output erzeugt.
Warum dann die Links nicht gleich mit HTML erzeugen?
Wie kann ich diesem Zustand abhelfen ?
Schreibe die Links pur in HTML, oder, falls es notwendig sein sollte,
sie dynamisch zu erzeugen, benutze eine serverseitige Scriptsprache
um dies zu erledigen.
Das funktioniert immer, da im Browser stets der gewünschte HTML-Code
ankommt (vorausgesetzt, das Skript funktioniert wie gewollt ;-) ).
Tschüß, Auge