Hallo,
stimmt meine Sichtweise so:
Zeichenkodierung, zb. UTF-8 = vereinfacht gesagt eine Kodierngsverfahren, welches konktrete Bytewerte auf Codepoints mapped
(zb. den Bytewert c2 b7 auf die Unicode-Kodierung U+00B7)
Zeichensatz, z.b. Unicode = eine Menge von Zeichen (Zeichenvorrat), der einem bestimmten Zweck dienlich ist. Zum Beispiel die Menge aller von Menschen gesprochenen Sprachen (Unicode) oder die Menge aller westeuropäischen Sprachen (Latin = Iso8859-1).
Frage:
wie ist hier die Schriftart zu sehen (z.b. Arial) und wie wird diese intern in einem Computersystem mit dem konkreten Bytewert verknüpft? Geschieht das auch über die Zeichenkodierung?