Wenn die deiner Dokumente UTF-8 ist, frage ich mich, welche Leute deine Zielgruppe sind. In welchem Land wird UTF-8 gesprochen?
Du meinst, nur weil ISO-typen verlustfrei nach UTF-8 konvertierbar seien, sei UTF-8 die Sprache aller Sprachen?
Wow. ja, irgendwie gibt es manchmal so etwas wie ein Flächendeckendes Konzept, wenn auch orthogonal zu Landesgrenzen. Aber UTF-8 ist auch nur ein begrenztes, wenn auch in nächster Zeit ausreichendes Char-Speicher-Set
Im Browser kannst du das Encoding (Analogie = Übersetzung) definieren. Das heisst, übersetze Bytes zu Unicode als ob die Sprache so oder so sei.
Eben. Und deshalb ist das (UTF-8) eine Zeichen*kodierung*.
Auch ein Übersetzungsproblem. Es hilft nicht, ein en oder de wegzuscheiden.
Das Englische Äquivalent zu Zeichenkodierung ist Char-Encoding.
Leider ein dummes Wort- Häufiger Lese ich Charset-Encoding und Charset-Decoding.
UTF-8 nimmt Teil am Zeichenencoding.
Ich lasse durchaus über den Begriff Charset diskutieren. Unicode hat ja die historischen Charsets von der Beschreibung der Codepunkte entlastet. Die primäre Aufgabe ist es die Speicherordnung in Bytes zu regeln.
Aber Encoding ist eine Übersetzung. Charset ist ein Zustand, eine Information, die es von Übersetzung zu Übersetzung zu transportieren gilt.
Ein Charset ist existentieller Bestandteil jeder Textdatei. leider lassen nicht alle Textformate eine Angabe dieser Information zu.
Programm -> Encode -> Media (Charset) -> Decode -> Programm.
[storage or transport]
mfg Beat
><o(((°> ><o(((°>
<°)))o>< ><o(((°>o
Der Valigator leibt diese Fische