Stefan Muenz: Zusatz zu HTML wird abgeschafft

Beitrag lesen

Hallo Pierre,

Doch was der Webmaster oft vergisst ist, dass er nicht für die Browser programmiert, sondern für den Customer.

Das kann man allerdings nicht oft genug betonen! Manchmal (auch bei einigen Fragen hier im Forum) entsteht bei mir der Verdacht, der Programmierende sucht lediglich nach einem Weg, wie er SEINEN Browser endlich zum gewuenschten Ergebnis bringt. Mit Web-Design aber hat so etwas rein gar nichts zu tun. Web-Design ist immer die Kunst, einen Mittelweg zwischen verschiedenen Browsern, unterschiedlichen Hardware-Voraussetzungen und geltenden Sprachstandards zu finden.

Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen.

Nichts gegen private Homepages! Und auf geocities.com gibt es glaube ich durchaus auch gute Beispiele davon (hab jetzt keine URLs, bin aber schon ein, zweimal bei der Suche nach irgendwas dorthin geraten und fand die Seiten nicht schlecht). Dass es die ewigen Under-Construction-Friedhoefe gibt, ist zweifellos, und aergerlich sind die insofern, als auch sie in den Suchmaschinen auftauchen (sprich, die Robots sind meist noch zu doof, um sie als Schrott zu erkennen). Aber wenn der Mayer aus N.Y. eine schoene, individuelle elektronische Visitenkarte ins Netz stellt, warum nicht? Es muessen ja nicht immer Megabyte von Daten sein.

Doch auch der Webbenutzer wird lernen, wie er das Web durchstreift. Er wird Newsagents verweendenn und nicht einfach zu excite surfen und auf gut Glück eine Seite aufrufen, die ihm e nix bringt.

Die Suchmechanismen werden sich sicher weiter verbessern, sowohl auf Client-Seite (Agents/Personal Digital Assistants) als auch auf Server-Seite (Suchmaschinen/Robots). Die andere Seite ist natuerlich: gefunden werden kann nur, was da ist. Es ist einfach enttaeuschend, nach einem Suchbegriff zu suchen, Treffer zu finden und dann nichts weiter Interessantes ueber das Thema zu erfahren. Dass eine Suchmaschine auch mal Woerter auflistet, die in einem Text nur beilaeufig vorkommen, aber nicht weiter thematisiert werden, ist noch verschmerzbar. Aber wenn ich meinetwegen nach James Bond suche und auf eine Homepage stosse, die das zwar zum Thema macht, aber ausser einer langweiligen und nicht mal vollstaendigen Aufzaehlung der Filmtitel keine weiteren Infos bietet, dann bin ich enttaeuscht.

Wir bräucht eine NETZ gegen HTML-Schänderei

Man koennte sagen: wer Inhalte ins Netz bringt, sollte nicht nur so tun (siehe Filmtitelliste), sondern auch echte redaktionelle Arbeit anbieten (wer drei Wochen einer abenteuerlichen JavaScript-Navigation bastelt, hat eben noch keine redaktionelle Arbeit geleistet, auch wenn die "Homepage" seiner Meinung nach netzreif ist). So etwas kann man im Sinne der Surfer durchaus fordern, und eine "Kampagne fuer HTML+Inhalt" wuerde sicherlich mehr Sinn machen als romantisch-reaktionaere "Zurueck-zum-Nurtext"-Kampagnen.

Kann man natuerlich alles nicht verabsolutieren. Es gibt durchaus Gruende, auch mal inhaltsleere Testseiten ins Netz hochzuladen, um etwas auszuprobieren oder so. Wenn dann gleich der Robot von Altavista vorbeikommt, nunja, Pech <g>.

Viele Gruesse
  Stefan Muenz