Ludger: Zeichenkodierung: ISO ... vs. Unicode

Beitrag lesen

Hi,

Dir ist klar, dass Du mit dieser Aussage internationale Standards ausser Acht laestt,

Inwiefern?

war Gesuelze. Aber dennoch. Zu behaupten, dass Unicode keine Kodierung ist, laesst mich dch ein wenig blass werden.   ;-)

Oder anders: Erklär's uns doch mal bitte konkret. Wie kodierst Du das Zeichen 'ä' in Unicode? Eine Angabe in Bytes in hexadezimaler Schreibweise genügen.

s.o.

Warum eine nur lokal verstaendliche Sprache sprechen, wenn es eine weltweit zu verstehende gibt?

Kommt immer auf die Zielgruppe an, würde ich sagen.

Die Zielgruppe ist gross mittlerweile, oder? (Selbst ich passe meine Aussagen soz. an internationale Standards an.)

Den Sinn des leider ausgeblendeten ungluecklichen Staetements.

Ja. Ich frage mich eben, was es daran nicht zu verstehen gibt

Zitiere es einfach mal und "feel the difference"!   ;-)

sondern auch dass das bereitgestellte System skalierbar, wartungsfreundlich und weiterentwicklungsfaehig ist und bleibt.

Was empfindest Du denn am CForum als nicht skalierbar, als nicht wartungsfreundlich und als nicht weiterentwicklungsfähig? Konkrete Beispiele bitte, daran lässt sich immer besser erklären, als an abstrakten Konzepten.

Erst ist das Wort. Christian hat ja leider hier bereits mehrfach die Grenzen seiner Belastbarkeit und Weiterentwicklungsfaehigkeit angedeutet. Ich rufe ihm hiermit zu: "Sei doof! Kuemmere Dich um das Datendesign und die Systeme und ansonsten halt die Fresse!"   ;-)

Gruss,
Ludger