Gustl: Das fruchtbare Thema Suchmaschinen

Beitrag lesen

Hi Jonathan,

Ich vermute eher wenige. Außerdem bieten einige Suchmaschinen eine automatische Rechtschreibkorrektur an.

Ak"z"ien war ja auch nur ein Beispiel (das aber stimmt) Googele sagt doch nur "meinten Sie vielleicht", mahr kann man ja auch nicht machen.

Ich vermute schon, dass robots Frames spidern. Allerdings wird die Suchmaschine dann immer noch nicht auf den Extakten treffer verlinken (können) sondern entweder nur aufs Frameset oder auf die einzelne Frameseite ohne Frameset. unter anderem deshalb sind Frames sehr ungeeignet.

Also scheint "Text-Sitemap" als index.htm schon geeignet.

Viele Suchmaschinen reagieren allergisch darauf, wenn die eine andere Seite bekommen als normale Benutzer.

Fragt sich wie der Spider das erkennen will. Es sind ja dann 2 eigenständige Seiten die sich manuell miteinander verlinken, wie millionen andere Sites auch, die kann er doch nicht ausschliessen, wär doch fatal.

1.) http://www.gedichte_zum_geburtstag_frauen_maenner_partyservice.x

2.) http://www.feste_feiern_ etc.

Diese eigenständigen Uris´s dann manuell auf bestimmte Ziele verlinken. Die Uri´s müssen natürlich "passenden" Inhalt haben.

Für den Robot scheint doch die Adresse sehr hohe Priorität zu haben, google ich mal explizit nach bestimmten Seiten-Namen sind viele dann auch in den Top-10. Sinn machts nur keinen.

<meta name="keywords" content="key, key, key">

Bringt meiner Meinung nach rein gar nichts, auch nicht wenn die keywords im Text vorkommen.

Das müsste man halt jetzt ganz genau wissen.

Auch hier bezweifele ich, dass sich der Robot da unbedingt dran halten wird. Der Roboter wird eigentlich selbst erkennen, wie oft sich eine Seite ändert und wie wichtig diese ist, sodass er selbst eintscheinden kann wie oft er vorbei kommt.

Ja das dachte ich auch dass wir nicht vorschreiben können wie oft der Robot vorbeikommt bei der Flut von Uris´s. Also ist "revisit-after" wohl sinnlos geworden.

Zusätzlich verwende ich meta DC-Angaben in jeder HTML.
Hier bezweifele ich den Nutzen. Meta-Angaben sind heutzutage m.E. sinnlos.

Du meinst damit natürlich Robot-Anweisende ...

3.) Wenn alles steht melde ich die Site bei den wichtigsten Suchmaschinen manuell an.

Vermutlich ist es sinnvoller/auch sinnvoll in der Suchmaschine deine URL als Suchbegriff einzugeben oder versuchen nach Schlüsselwörtern mit der Suchmaschine auf deiner Seite zu suchen. Auch wenn am Anfang natürlich nichts gefunden wird, merkt die Suchmaschine so, dass deine Seie existiert und gespidert werden sollte.

Hmmm, keine Ahnung :) Dann bau ich was, was meine seite jeden tag 1000 mal sucht, oder wie ? ?p="key"

Auch die Aussage von Martin macht ein wenig mutlos, dass alle Arbeit nach einiger Zeit vielleicht nutzlos sein wird. Sollten wir aufgeben und weiterhin unsere Seiten "so vor sich hintümpeln lassen" ?

Ich hab in meiner Firma mal was testen lassen. Ich suchte mir einige Seiten aus und gab meinen Leuten die Anweisung, das Thema dieser Seiten in den Suchmaschinen zu finden. Die URI hab ich nicht verraten. Dabei wurde deutlich, dass einige Seiten nur gefunden wurden, wenn der eingetippte Suchbegriff in der Adresse, im <title> und in den ersten Textzeilen gleichermassen vorkam. Und da war nur einmal ein Top-10 Treffer dabei. Andere Seiten suchten wir vergeblich unter den ersten 100, obwohl die selben Attribute drauf zutrafen. Die gefundenen Seiten waren (auch) Frame-Seiten. Einen Tag später haben wir den selben Test mit den selben Keys gemacht und wir hatten wieder total andere Ergebnisse.

Ist also das gefunden werden in Suchmaschinen eine totale Zufallssache ? Dann sollten wir uns wirklich nicht mehr abmühen und einfach auf den Lottogewinn hoffen ...

Der selbe Test mit grossen, bekannten Seiten: Nun ja, die wurden komischerweise an allen Tagen mit den selben Keys gefunden obwohl die Titel und der Text auch nicht mehr Keys hergab als bei den anderen.

Also kein Zufallsspiel ! Aber wo ist der Unterschied ? Erkaufte Plätze oder doch was anderes ?

Grüsse Gustl