n'Abend,
Ein Zeichen in einem String (1) ist das eine; wie das Zeichen codiert gespeichert wird (2) was ganz Anderes.
da ich mich als Programmierer häufig an der Schnittstelle beider Welten befinde, interessieren sie mich auch beide.
Wenn man sauber programmiert, mischt man die beiden Ebenen auch nicht. Genauer gesagt, geht einen (2) überhaupt gar nichts an; man bewegt sich ausschließlich in der Ebene (1).
Im Gegenteil: Ich bewege mich häufiger auf der Ebene (2) als auf der Ebene (1).
Ein Zeichen ist ein Zeichen ist ein Zeichen, der Begriff „Byte“ existiert auf dieser Abstraktionsebene gar nicht.
Diese oft propagierte Trennung halte ich für kontraproduktiv. Sie führt u.U. zu gut strukturiertem, aber ineffizientem Code.
Die Umwandlung der Zeichen in die Bytewerte ist Sache des Systems (Interpreters/Compilers der verwendeten Programmiersprache), nicht die des Programmieres.
Nein, was du beschreibst, ist Sache des Anwenders. Der Programmierer sollte die Abbildung durchgängig bis auf Maschinenebene vor Augen haben.
Ciao,
Martin
Ein guter Lehrer muss seinen Schülern beibringen können,
eine Frage so zu stellen, dass auch der Lehrer lernen muss,
um die Frage beantworten zu können.
(Hesiod, griech. Philosoph, um 700 v.Chr.)