Zusatz zu HTML wird abgeschafft
Pierre
0 Thomas Mell0 Stefan Muenz0 Pierre
0 Besim Karadeniz0 Pierre
0 Thomas hieck
Hallo Leute,
Ich laß im Forum eine Nachricht zum Thema TXT high on the WEB.
Diese Idee ist gar nicht mal so schlecht, es ist zwar kein Schritt in die richtige Richtung aber ein Ansatz davon, denn der Webmaster von Heute versucht durch Tables, colspan DHTML CSS usw. dass Layout einer Seite für beide Browser zu programmieren....
Doch was der Webmaster oft vergisst ist, dass er nicht für die Browser programmiert, sondern für den Customer. Was hat der Kunde davon wenn er nach einem Websiten Besuch eigentlich gar nichts zu "berichten" hat. Nehmen wir mal selfHTML, wir lesen es nicht wegen dem so guten Design, sondern wegen dem Inhalt. Es gibt bessere Referenzen wie www.microsoft.com/workshop doch die haben wieder vergessen, richtiges Design zu verwenden. Also ist meiner Meinung nach nur wegen dem Inhalt selfHTML die beste Referenz. Und die Text-Only Versionen von manchen Seiten haben sichg nicht durchgesetzt, weil damit irgendwie die Aussage verloren geht, keine Bilder zum passenden Thema haben, nun mal ehrlich, habt ihr auf eurem Logfile noch einen Lynxianer? oder einen Netscape 2.0 oder IE 3.0 (den noch eher)
Doch man kann alles mit Aufwand programmieren, für mehrere Browser und wer sich dessen nicht bewusst ist, der wird nicht viele Besucher uaf der Webseite haben.
Weiters: Das Internet und Geocities
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen. Wir haben noch viel auf dem Web zu lernen, wann wir eigentlich wirklich berechtigt sind eine Page ins Web zu stellen. Sicher das Ziel einer Webpage ist es entweder Geld zu verdienen, sich bekannt zu machen, oder anzugeben.
Doch die kommerziellen Seiten, sind meisten wirklich die guten, ZDNET.com, CNET, oder Techweb. Diese Seiten bieten für einen Computervernatiker echte Infos und nicht die Seite vom MediaMarkt der das produkt um den 40fachen Preis verhökert.
Doch auch der Webbenutzer wird lernen, wie er das Web durchstreift. Er wird Newsagents verweendenn und nicht einfach zu excite surfen und auf gut Glück eine Seite aufrufen, die ihm e nix bringt.
Wir werden jetzt, die Webmaster, Seiten programmieren müssen, die fortschrittlich sind, und nicht immer JavaScript und so verwenden wenn er nicht 100x getestet wurde oder bei gamechannel mal schnell Billard spielen, sicher dass Web wird immer mehr Entertaiment, doch das war nicht der Sinn des Webs, der Sinn war, das Wissen der Welt zu nützen, mich bei Stefan über Layer informieren, und mir 700Schilling für ein teures HTML Buch ersparen, dass so und so Scheiße geschrieben ist.
Genug gesagt
aber HTML ist unschlagbar, doch es wird mißbraucht von uns....
Wir bräucht eine NETZ gegen HTML-Schänderei
Soooooo
CIAO
Pierre
....Weiters: Das Internet und Geocities
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen. Wir haben noch viel auf dem Web zu lernen, wann wir eigentlich wirklich berechtigt sind eine Page ins Web zu stellen. Sicher das Ziel einer Webpage ist es entweder Geld zu verdienen, sich bekannt zu machen, oder anzugeben.....
Schau dir doch einmal die Seiten bei AOL, Compuserv, T-Online, The Globe, Schlund und Partner etc. an. Dort liegt auch zu 95% Müll auf dem Server. Aber wem stört es denn? Internet ist wie Fernsehen, wenn es nervt kann man auch abschalten.
Wer ernsthafte Seiten ins Netz stellen möchte, der kann mit den oben genannten Providern eh nicht anfangen. Entweder sind sie zu langsam oder unterstützen keine Nützlichen Dinge wie CGI, ASP etc. Wenn man sich ein bißchen im Internet auskennt, dann klickt man erst garnicht auf Links zu solchen Seiten>>>
....Wir bräucht eine NETZ gegen HTML-Schänderei.....
Wie währe es mit einer Suchmaschine die nicht jede Müllseite aufnimmt sondern nur Seiten mit brauchbaren Inhalt? Gibt es sowas schon ? Die einzige Suchmaschine die ich kenne, wo man nicht total zugemüllt wird, ist web.de >>>>>
Hi Thomas
....Wir bräucht eine NETZ gegen HTML-Schänderei.....
Wie währe es mit einer Suchmaschine die nicht jede Müllseite aufnimmt sondern nur Seiten mit brauchbaren Inhalt? Gibt es sowas schon ? Die einzige Suchmaschine die ich kenne, wo man nicht total zugemüllt wird, ist web.de >>>>>
Ehrlich gesagt solche Suchmaschinen kenne ich gar nicht, ich kann nur sagen, dass excite, infooseek, altavista usw. nur schrott bringt. Aber echt wahr, deswegen werden sich, meiner Meinung nach, Webkataloge eher etablieren, nur muss ich sagen, dass yahoo auch noch einiges zu lernen hat, und zwar nicht immer börsenkurse und sowas zu bringen, ehrlich gesagt ist dass gar nicht sinn und zweck des yahoo-dienstes.
web.de ist recht super und versteht auch was von webdesign. nur irgendwie herrscht etwas monoplie im web, die kleinen tun sich schwer nach oben aufzusteigen, doch im Web gibts nur eins: CONTENT, CONTENT und nochmal CONTENT, Service und Gratis, die 3 Schlagworte die eigentlich versprechen Besucher zu bekommen.
und web.de ist da gar nicht mal so schlecht.
Nur eine Frage noch:
Weiß da eigentlich wer, wie robots programmiert werden? Mit Pearl? würd mich echt interresieren wenn dass wer wüsste
Hallo Pierre,
Ehrlich gesagt solche Suchmaschinen kenne ich gar nicht, ich kann nur sagen, dass excite, infooseek, altavista usw. nur schrott bringt.
Hm, es fragt sich hier nur, wie du suchst. Altavista z.B. ist schon einer der großen und bei vielen Millionen indizierten Seiten ist eben auch eine präzise Anfrage angesagt. Ist sie präzise, kommt auch was Nützliches dabei heraus.
nur muss ich sagen, dass yahoo auch noch einiges zu lernen hat, und zwar nicht immer börsenkurse und sowas zu bringen, ehrlich gesagt ist dass gar nicht sinn und zweck des yahoo-dienstes.
Yahoo muß, wie jeder andere Dienst auch, Geld verdienen und Geld verdient man nicht allein durch Anlage von Bookmarksammlungen. Vielleicht solltest du dir mal anschauen, wie teuer z.B. eine 2mbit-Leitung ist und was 1 GB Traffic so kostet.
web.de ist recht super und versteht auch was von webdesign.
Du kannst dir sicherlich vorstellen, wie schnurze es einem Nutzer ist, was für ein "Webdesign" web.de hat, wenn er etwas sucht und auch mit schönsten "Webdesign" nicht findet. *eg*
und web.de ist da gar nicht mal so schlecht.
Naja, ich kann mir schon bessere Kataloge vorstellen als web.de. Die Stichwortsuche ist zumindest mal etwas merkwürdig.
Gruß,
-besim
Hallo Pierre,
Doch was der Webmaster oft vergisst ist, dass er nicht für die Browser programmiert, sondern für den Customer.
Das kann man allerdings nicht oft genug betonen! Manchmal (auch bei einigen Fragen hier im Forum) entsteht bei mir der Verdacht, der Programmierende sucht lediglich nach einem Weg, wie er SEINEN Browser endlich zum gewuenschten Ergebnis bringt. Mit Web-Design aber hat so etwas rein gar nichts zu tun. Web-Design ist immer die Kunst, einen Mittelweg zwischen verschiedenen Browsern, unterschiedlichen Hardware-Voraussetzungen und geltenden Sprachstandards zu finden.
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen.
Nichts gegen private Homepages! Und auf geocities.com gibt es glaube ich durchaus auch gute Beispiele davon (hab jetzt keine URLs, bin aber schon ein, zweimal bei der Suche nach irgendwas dorthin geraten und fand die Seiten nicht schlecht). Dass es die ewigen Under-Construction-Friedhoefe gibt, ist zweifellos, und aergerlich sind die insofern, als auch sie in den Suchmaschinen auftauchen (sprich, die Robots sind meist noch zu doof, um sie als Schrott zu erkennen). Aber wenn der Mayer aus N.Y. eine schoene, individuelle elektronische Visitenkarte ins Netz stellt, warum nicht? Es muessen ja nicht immer Megabyte von Daten sein.
Doch auch der Webbenutzer wird lernen, wie er das Web durchstreift. Er wird Newsagents verweendenn und nicht einfach zu excite surfen und auf gut Glück eine Seite aufrufen, die ihm e nix bringt.
Die Suchmechanismen werden sich sicher weiter verbessern, sowohl auf Client-Seite (Agents/Personal Digital Assistants) als auch auf Server-Seite (Suchmaschinen/Robots). Die andere Seite ist natuerlich: gefunden werden kann nur, was da ist. Es ist einfach enttaeuschend, nach einem Suchbegriff zu suchen, Treffer zu finden und dann nichts weiter Interessantes ueber das Thema zu erfahren. Dass eine Suchmaschine auch mal Woerter auflistet, die in einem Text nur beilaeufig vorkommen, aber nicht weiter thematisiert werden, ist noch verschmerzbar. Aber wenn ich meinetwegen nach James Bond suche und auf eine Homepage stosse, die das zwar zum Thema macht, aber ausser einer langweiligen und nicht mal vollstaendigen Aufzaehlung der Filmtitel keine weiteren Infos bietet, dann bin ich enttaeuscht.
Wir bräucht eine NETZ gegen HTML-Schänderei
Man koennte sagen: wer Inhalte ins Netz bringt, sollte nicht nur so tun (siehe Filmtitelliste), sondern auch echte redaktionelle Arbeit anbieten (wer drei Wochen einer abenteuerlichen JavaScript-Navigation bastelt, hat eben noch keine redaktionelle Arbeit geleistet, auch wenn die "Homepage" seiner Meinung nach netzreif ist). So etwas kann man im Sinne der Surfer durchaus fordern, und eine "Kampagne fuer HTML+Inhalt" wuerde sicherlich mehr Sinn machen als romantisch-reaktionaere "Zurueck-zum-Nurtext"-Kampagnen.
Kann man natuerlich alles nicht verabsolutieren. Es gibt durchaus Gruende, auch mal inhaltsleere Testseiten ins Netz hochzuladen, um etwas auszuprobieren oder so. Wenn dann gleich der Robot von Altavista vorbeikommt, nunja, Pech <g>.
Viele Gruesse
Stefan Muenz
Hallo Stefan,
Wir bräucht eine NETZ gegen HTML-Schänderei
Man koennte sagen: wer Inhalte ins Netz bringt, sollte nicht nur so tun (siehe Filmtitelliste), sondern auch echte redaktionelle Arbeit anbieten (wer drei Wochen einer abenteuerlichen JavaScript-Navigation bastelt, hat eben noch keine redaktionelle Arbeit geleistet, auch wenn die "Homepage" seiner Meinung nach netzreif ist). So etwas kann man im Sinne der Surfer durchaus fordern, und eine "Kampagne fuer HTML+Inhalt" wuerde sicherlich mehr Sinn machen als romantisch-reaktionaere "Zurueck-zum-Nurtext"-Kampagnen.
Das wäre eine echt gute idee Stefan. Ich würde meinen, dass das wahrscheinlich eine verdammt gute Idee ist <g>
Hättest du lust mitzumachen bei der Kampangne?
Würde mir echt voll Spaß machen sowas aufzubauen....
____________________________________________________
Kann man natuerlich alles nicht verabsolutieren. Es gibt durchaus Gruende, auch mal inhaltsleere Testseiten ins Netz hochzuladen, um etwas auszuprobieren oder so. Wenn dann gleich der Robot von Altavista vorbeikommt, nunja, Pech <g>.
Dann sollte man sie meiner Meinung nach offline testen oder ein robots.txt einfügen :-)
Pierre
Viele Gruesse
Stefan Muenz
Hallo Pierre,
Das wäre eine echt gute idee Stefan. Ich würde meinen, dass das wahrscheinlich eine verdammt gute Idee ist <g>
Wohl zu viel "Thelma und Louise" geguckt, was? ;-)
Hättest du lust mitzumachen bei der Kampangne?
Würde mir echt voll Spaß machen sowas aufzubauen....
Na, mach Du erst mal - Du scheinst ja Elan genug zu haben ...
Viele Gruesse
Stefan Muenz
Hallo Pierre,
Ich laß im Forum eine Nachricht zum Thema TXT high on the WEB.
Diese Idee ist gar nicht mal so schlecht, es ist zwar kein Schritt in die richtige Richtung aber ein Ansatz davon, denn der Webmaster von Heute versucht durch Tables, colspan DHTML CSS usw. dass Layout einer Seite für beide Browser zu programmieren....
Es ist kein "Webdesigner" gezwungen, gewisse Tags zu nutzen. Nicht alles, was möglich ist, muß auch genutzt werden. Wenn ich mir manchmal so die hochgestylten Homepages von aufstrebenden Ein-Mann-Werbeagenturen anschaue, die im Grunde genommen nur aus 4er-Browser-Tags und Shockwave bestehen, so dreht es mir den Magen um. Viele versuchen, mangelhafte Information oder Schlampigkeit durch angeblich ausgeklügeltes Gezappel auszugleichen, was aber immer in die Hose geht. Nur komisch, daß immer wieder gerade neugeborene Kommunikationswissenschaftler diesen Trick versuchen. :-/
Die TXT-Kampagne ist meiner Meinung nach eine Lachnummer, denn wer zurück zur TXT-Welt will, darf sich gerne einen Gopher-Server einrichten, mit allen Vor- und Nachteilen, wobei die letzteren überwiegen. Wer sich von der Programmierung von fundierten Webseiten überlastet fühlt, sollte einfach die Finger davon lassen, ganz einfach.
Und die Text-Only Versionen von manchen Seiten haben sichg nicht durchgesetzt, weil damit irgendwie die Aussage verloren geht, keine Bilder zum passenden Thema haben, nun mal ehrlich, habt ihr auf eurem Logfile noch einen Lynxianer? oder einen Netscape 2.0 oder IE 3.0 (den noch eher)
Mit Lynx hat es die Bewandnis, daß er z.B. für blinde Menschen der einzig vernünftige Browser ist, mit denen sie Information lesen können. Und allein diese großartige Möglichkeit ist mir Ansporn genug, eine informative Site auch für Lynx lesbar zu halten. Wenn du mal gesehen hast, wie sich ein blinder Mensch über ein lange gesuchtes Buch in Braille-Schrift freuen kann, weißt du, was ich meine.
Doch man kann alles mit Aufwand programmieren, für mehrere Browser und wer sich dessen nicht bewusst ist, der wird nicht viele Besucher uaf der Webseite haben.
Ich würde eher umgekehrt schauen: Der professionelle "Webdesigner" beschränkt sich eben auf die Möglichkeiten, die mit allen Browsern funktionieren. Daß die Standards den technischen Möglichkeiten hinterherhinkt, ist nun mal der Nachteil, daß in Sachen HTML noch keine ISO jeden Futzel reglementiert und kaputtregelt, aber ich denke, darauf kann ich auch gut verzichten, denn was die ISO einmal anfaßt, wird teuer und langwierig.
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen.
Aua, das fasse ich schon fast als Beleidigung auf. ;-)
Geocities hat den Webbenutzern schon zu Zeiten Webspace kostenlos angeboten, als sich in Deutschland noch alles munter um BTX drehte. Auf Geocities ist wohl mehr fundierte Information zu finden, als auf allen privaten Homepages, die auf deutschen Servern beheimatet sind.
Wir haben noch viel auf dem Web zu lernen, wann wir eigentlich wirklich berechtigt sind eine Page ins Web zu stellen. Sicher das Ziel einer Webpage ist es entweder Geld zu verdienen, sich bekannt zu machen, oder anzugeben.
Aber hallo, wie gehst du denn ab? Ich würde jeden aufmuntern, eine eigene Website zu erstellen und sei derjenige noch so hohl. Das Web lebt von der Informationsfülle und es zwingt dich keiner, irgendeine Website zu besuchen. Null-Info-Websites werden mit Nichtbeachtung bestraft, das ist aber noch lange kein Grund zu sagen, daß solche Sites nicht ins Web gehören.
Doch die kommerziellen Seiten, sind meisten wirklich die guten, ZDNET.com, CNET, oder Techweb. Diese Seiten bieten für einen Computervernatiker echte Infos und nicht die Seite vom MediaMarkt der das produkt um den 40fachen Preis verhökert.
Nun bremse dich aber mal bitte ein! Natürlich können solche Sites immer Aktuelles liefern, da hinter den Seiten vielköpfige Online-Redaktionen stecken, die auf die Archive und Werke innerhalb der Verlage zurückgreifen können. Ich als Einzelbetreiber einer Website habe nicht das Geld und kann demnach natürlich nicht so aktuell sein, aber Infos will ich auch liefern und ich denke, ich kann das auch (wenngleich auch in viel kleinerem Maße). Gemeinnützige Arbeit hat nun mal leider den Nachteil, daß man im halben Bekannten- und Kollegenkreis für eine lange Zeit für einen Trottel gehalten wird.
Doch auch der Webbenutzer wird lernen, wie er das Web durchstreift. Er wird Newsagents verweendenn und nicht einfach zu excite surfen und auf gut Glück eine Seite aufrufen, die ihm e nix bringt.
Es gilt das ungeschriebene Gesetz, sich an Vorgänge der Allgemeinheit im Netz anzupassen, denn sonst können wir gleich zu AOL gehen und uns von oben sagen lassen, was angeblich schön, bunt und trendy ist.
Wir werden jetzt, die Webmaster, Seiten programmieren müssen, die fortschrittlich sind, und nicht immer JavaScript und so verwenden wenn er nicht 100x getestet wurde oder bei gamechannel mal schnell Billard spielen, sicher dass Web wird immer mehr Entertaiment, doch das war nicht der Sinn des Webs, der Sinn war, das Wissen der Welt zu nützen, mich bei Stefan über Layer informieren, und mir 700Schilling für ein teures HTML Buch ersparen, dass so und so Scheiße geschrieben ist.
Ich bin ja auch einer, der gern mal einen Abend über die Philosophie des Netzes referiert. Aber laß' mal einfach die Kirche im Dorf stehen und du wirst erkennen, daß alles halb so schlimm ist, wie du es prophezeist. Viele verbringen Wochen und Monate damit, Information zusammenzutragen und es ist ihnen nicht übelzunehmen, wenn einige dafür Geld verlangen, denn vom Gürtelkauen wird keiner satt.
aber HTML ist unschlagbar, doch es wird mißbraucht von uns....
Wir bräucht eine NETZ gegen HTML-Schänderei
Ähem, Pierre, vielleicht solltest du gelegentlich auch mal den Computer abschalten und etwas an der frischen Luft spazierengehen, daß hat mir bei so ähnlichen Phasen auch sehr gut geholfen. Okay, wir Internet-Freaks sind schon ein etwas seltsames Völkchen, aber eine neue Weltordnung müssen wir deswegen nicht ausrufen. Keep cool (und das meine ich freundschaftlich gesinnt). :-)
Grüßle,
-besim
Hallo Pierre,
Ich laß im Forum eine Nachricht zum Thema TXT high on the WEB.
Diese Idee ist gar nicht mal so schlecht, es ist zwar kein Schritt in die richtige Richtung aber ein Ansatz davon, denn der Webmaster von Heute versucht durch Tables, colspan DHTML CSS usw. dass Layout einer Seite für beide Browser zu programmieren....Es ist kein "Webdesigner" gezwungen, gewisse Tags zu nutzen. Nicht alles, was möglich ist, muß auch genutzt werden. Wenn ich mir manchmal so die hochgestylten Homepages von aufstrebenden Ein-Mann-Werbeagenturen anschaue, die im Grunde genommen nur aus 4er-Browser-Tags und Shockwave bestehen, so dreht es mir den Magen um. Viele versuchen, mangelhafte Information oder Schlampigkeit durch angeblich ausgeklügeltes Gezappel auszugleichen, was aber immer in die Hose geht. Nur komisch, daß immer wieder gerade neugeborene Kommunikationswissenschaftler diesen Trick versuchen. :-/
Die TXT-Kampagne ist meiner Meinung nach eine Lachnummer, denn wer zurück zur TXT-Welt will, darf sich gerne einen Gopher-Server einrichten, mit allen Vor- und Nachteilen, wobei die letzteren überwiegen. Wer sich von der Programmierung von fundierten Webseiten überlastet fühlt, sollte einfach die Finger davon lassen, ganz einfach.
Und die Text-Only Versionen von manchen Seiten haben sichg nicht durchgesetzt, weil damit irgendwie die Aussage verloren geht, keine Bilder zum passenden Thema haben, nun mal ehrlich, habt ihr auf eurem Logfile noch einen Lynxianer? oder einen Netscape 2.0 oder IE 3.0 (den noch eher)
Mit Lynx hat es die Bewandnis, daß er z.B. für blinde Menschen der einzig vernünftige Browser ist, mit denen sie Information lesen können. Und allein diese großartige Möglichkeit ist mir Ansporn genug, eine informative Site auch für Lynx lesbar zu halten. Wenn du mal gesehen hast, wie sich ein blinder Mensch über ein lange gesuchtes Buch in Braille-Schrift freuen kann, weißt du, was ich meine.
Doch man kann alles mit Aufwand programmieren, für mehrere Browser und wer sich dessen nicht bewusst ist, der wird nicht viele Besucher uaf der Webseite haben.
Ich würde eher umgekehrt schauen: Der professionelle "Webdesigner" beschränkt sich eben auf die Möglichkeiten, die mit allen Browsern funktionieren. Daß die Standards den technischen Möglichkeiten hinterherhinkt, ist nun mal der Nachteil, daß in Sachen HTML noch keine ISO jeden Futzel reglementiert und kaputtregelt, aber ich denke, darauf kann ich auch gut verzichten, denn was die ISO einmal anfaßt, wird teuer und langwierig.
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen.
Aua, das fasse ich schon fast als Beleidigung auf. ;-)
Geocities hat den Webbenutzern schon zu Zeiten Webspace kostenlos angeboten, als sich in Deutschland noch alles munter um BTX drehte. Auf Geocities ist wohl mehr fundierte Information zu finden, als auf allen privaten Homepages, die auf deutschen Servern beheimatet sind.
Wir haben noch viel auf dem Web zu lernen, wann wir eigentlich wirklich berechtigt sind eine Page ins Web zu stellen. Sicher das Ziel einer Webpage ist es entweder Geld zu verdienen, sich bekannt zu machen, oder anzugeben.
Aber hallo, wie gehst du denn ab? Ich würde jeden aufmuntern, eine eigene Website zu erstellen und sei derjenige noch so hohl. Das Web lebt von der Informationsfülle und es zwingt dich keiner, irgendeine Website zu besuchen. Null-Info-Websites werden mit Nichtbeachtung bestraft, das ist aber noch lange kein Grund zu sagen, daß solche Sites nicht ins Web gehören.
Doch die kommerziellen Seiten, sind meisten wirklich die guten, ZDNET.com, CNET, oder Techweb. Diese Seiten bieten für einen Computervernatiker echte Infos und nicht die Seite vom MediaMarkt der das produkt um den 40fachen Preis verhökert.
Nun bremse dich aber mal bitte ein! Natürlich können solche Sites immer Aktuelles liefern, da hinter den Seiten vielköpfige Online-Redaktionen stecken, die auf die Archive und Werke innerhalb der Verlage zurückgreifen können. Ich als Einzelbetreiber einer Website habe nicht das Geld und kann demnach natürlich nicht so aktuell sein, aber Infos will ich auch liefern und ich denke, ich kann das auch (wenngleich auch in viel kleinerem Maße). Gemeinnützige Arbeit hat nun mal leider den Nachteil, daß man im halben Bekannten- und Kollegenkreis für eine lange Zeit für einen Trottel gehalten wird.
Doch auch der Webbenutzer wird lernen, wie er das Web durchstreift. Er wird Newsagents verweendenn und nicht einfach zu excite surfen und auf gut Glück eine Seite aufrufen, die ihm e nix bringt.
Es gilt das ungeschriebene Gesetz, sich an Vorgänge der Allgemeinheit im Netz anzupassen, denn sonst können wir gleich zu AOL gehen und uns von oben sagen lassen, was angeblich schön, bunt und trendy ist.
Wir werden jetzt, die Webmaster, Seiten programmieren müssen, die fortschrittlich sind, und nicht immer JavaScript und so verwenden wenn er nicht 100x getestet wurde oder bei gamechannel mal schnell Billard spielen, sicher dass Web wird immer mehr Entertaiment, doch das war nicht der Sinn des Webs, der Sinn war, das Wissen der Welt zu nützen, mich bei Stefan über Layer informieren, und mir 700Schilling für ein teures HTML Buch ersparen, dass so und so Scheiße geschrieben ist.
Ich bin ja auch einer, der gern mal einen Abend über die Philosophie des Netzes referiert. Aber laß' mal einfach die Kirche im Dorf stehen und du wirst erkennen, daß alles halb so schlimm ist, wie du es prophezeist. Viele verbringen Wochen und Monate damit, Information zusammenzutragen und es ist ihnen nicht übelzunehmen, wenn einige dafür Geld verlangen, denn vom Gürtelkauen wird keiner satt.
aber HTML ist unschlagbar, doch es wird mißbraucht von uns....
Wir bräucht eine NETZ gegen HTML-SchändereiÄhem, Pierre, vielleicht solltest du gelegentlich auch mal den Computer abschalten und etwas an der frischen Luft spazierengehen, daß hat mir bei so ähnlichen Phasen auch sehr gut geholfen. Okay, wir Internet-Freaks sind schon ein etwas seltsames Völkchen, aber eine neue Weltordnung müssen wir deswegen nicht ausrufen. Keep cool (und das meine ich freundschaftlich gesinnt). :-)
Grüßle,
-besim
----------------------------------------------
----------------------------------------------
----------------------------------------------
Ok, ich hab mir meinen Post nochmal angeschaut und hab selber festgestellet, dass ich jetzt etwas durchgeschossen bin, ich hab mich nur so geärgert dass mein CSS so verrückt gespielt hat, und irgendwo hab ich ja die Wut dann ablassen müssen *g*
sorry
pierre
Haben sie unter der URL www.geocities.com schon mal gescheites gefunden - zu 90% ist die Antwort nein, weil es nur TestPages gibt die immer Under Construction sind und nur privat sind, doch welcher Idiot sollte die Page von Mister Mayer in N.Y. anschauen.
Ich bin ueberhaupt nicht deiner Meinung.
Auch wenn ich genervt bin von beschrieben Homepages, denke ich doch, dass sie unverzichtbar sind.
Das www wird langsam ein Abbild unserer Gessellschaft, und da gehoert eben dieser ganz Muell auch mit rein. Ich moechte ihn da auch nicht missen.
Ausserdem gibt es hervorragende und informative Homepages bei geocities.
Schaem dich, auch wenn ich selbst ein Anhaeger von
klaren guten HTML bin.
Thomas Hieck