Hallo Henryk,
Die Spezifikation selbst spricht von "Unicode-Format", also ist es falsch wenn ich das verwende.
Ich habe sie nicht gelesen, könntest du mir also bitte die Stelle zeigen? Weit und breit lese ich nur von 'Unicode Transport Format'.
z.B. auf die Schnelle: http://www.unicode.org/glossary/#U
(Sonst PDF http://www.unicode.org/versions/Unicode4.0.0/ch03.pdf Kapitel 3.9)
Wenn ich dir persönlich etwas erklären wollte,
Ich schrieb, dass meine Posting nicht außschließlich dich bezogen war. ;-)
Da ist nichts durcheinander (von Bits und Bytes war sowieso überhaupt nie die Rede)
_ich_ redete ja auch nicht davon.
da ist aber ein Missverständnis. Du schriebst, dass in UTF-8 ein Zeichen 8 Bit habe. Ein Zeichen ist für mich (und ich nehme einfach mal frecherweise an auch für andere) sowas wie ä, und das hat bekanntermaßen in UTF-8 16 Bit. Ich wollte einfach sagen, dass in UTF-8 ein Zeichen aus 8, 16, 24 oder 32 Bit besteht, in UTF-16 aus 16 oder 32 Bit und in UTF-32 aus 32 Bit.[2]
Du scheinst 'Zeichen' aber einfach als Übersetzung für 'code unit' zu verwenden.
Ja, das war missverständlich. Ich meinte damit code unit = "minimal bit combination that can represent a unit of encoded text" = "basic unit of encoding for the Unicode character encoding" = Charakter = Zeichen.
[1] bla bla bla³. _darum_ ging es wirklich nicht ;-)
Grüße
Thomas