Hallo,
Dass die Unicode-Stringverarbeitung ein bisschen aufwendiger ist als die von Single-Byte-Strings, bestreitet ja auch niemand. Der Punkt ist nur: Das ist es wert. Oder möchtest Du ca. 3 Milliarden Menschen erklären, dass sie ihre jeweilige Muttersprache abschaffen* sollen, nur weil wir ein paar Ticks sparen wollen?
Das müssen sie ja gar nicht.
ERST die Codepage wählen, dann schreiben.
Genau das funktioniert eben nicht. Eine 1-Byte-Codepage erlaubt maximal 256 Zeichen, und das ist verdammt wenig. Chinesisch, Japanisch, Koreanisch, Vietnamesisch, Vai, Amharisch, Inuktitut und viele andere Sprachen lassen sich damit nicht kodieren. Bei den ca. 3 Milliarden Betroffenen habe ich auch nur diese Sprachen mitgezählt. Mit reinem ASCII hätten rund 6,7 Milliarden Menschen ein Problem.
Außerdem ist es auch problematisch, Zeichen verschiedener Sprachen nicht mischen zu können. Beispielsweise könnte man niemals einen deutschen Text über den polnischen Autor Stanisław Jerzy Lec schreiben - zumindest nicht mit korrekter Orthografie. Und die Wikipedia könnte bei einem Artikel über eine beliebige Stadt im Ausland weder die Originalschreibweise noch die Aussprache in Lautschrift angeben. Usw. usf.
Und dann die Problematik, dass Sender und Empfänger einer Nachricht immer beide dieselbe Codepage einstellen müssen, während bei einem Unicode-Text einfach alles gleich richtig angezeigt wird. Wieviele Ticks muss man einsparen, um je eine Einstellung durch zwei User auszugleichen?
Mal ehrlich, wenn Du Dich mit dem Thema Stringverarbeitung beschäftigt hast, wie kann es dann sein, dass Dir so ziemlich alle Anwendungsfälle außer rein englischem Text entgangen sind?
Viele Grüße,
Alexander