@@molily:
nuqneH
(vorläufige Übersetzung)
Das könnt Ihr jetzt wieder vergessen. ;-)
Dabei bleibt (soweit ich das überflogen habe) einmal wieder außen vor, dass »Character set« durchaus ein offizieller Begriff für Kodierung ist
und sich so auch erklärt, wieso man charset=UTF-8 schreibt, obwohl UTF-8 kein character set, sondern eine encoding ist.
Das würde ich eher historisch erklären. Als HTTP entworfen wurde, gab es tatsächlich für jeden Zeichensatz nur jeweils eine Codierung: die Nummer der Position des Zeichens im codierten Zeichensatz. Spätestens seit Unicode ist die Unterscheidung zwischen beidem aber essentiell.
Nicht von ungefähr heißt das Pseudo-Attribut in der XML-Deklaration auch "encoding".
unzählige deutsche Quellen reden immer noch von Zeichensatz.
Eine missbräuchliche Verwendung. Wohl die meisten Probleme, die immer wieder im Zusammenhang mit Zeichen auftreten, rühren daher, dass der Unterschied zwischen Zeichensatz und Zeichencodierung nicht klar ist. Die Verwendung der richtigen Terminologie ist Voraussetzung für das Verständnis.
Dass hier verschiedene Gremien ganz bewusst und fortwährend unterschiedliche Begriffe verwenden, sollte man m.E. schon erklären, wenn man die Begriffe definiert. Anders kann man das Missverständnis nicht aus der Welt räumen, wenn man sich dieser Situation nicht bewusst ist.
Das kommt in beiden erwähnten Artikeln zur Sprache:
„Es ist sehr wichtig, die Konzepte Zeichensatz und Zeichencodierung sorgfältig zu unterscheiden.“ [article-definitions-characters]
„Der missverständliche Begriff charset (Zeichensatz) wird oft auch fälschlicherweise für Zeichencodierungen verwendet. Man sollte sich dessen bewusst sein, selbst aber möglichst immer den Begriff Zeichencodierung dafür verwenden.“ [qa-what-is-encoding]
Qapla'
Gut sein ist edel. Andere lehren, gut zu sein, ist noch edler. Und einfacher.
(Mark Twain)