Hallo,
Solche einfachen Denkmodelle wären auch mit den heutigen Systemen noch vorstellbar, aber es wird von den Theoretikern meist unnötig verkompliziert.
Nein, sie wären heute nicht mehr vorstellbar und es wird auch nicht unnötig verkompliziert. Die alten Denkmodelle wurden von Praktikern überwunden, das ist es.
In einer »internationalisierten« Computerwelt bezieht sich letztlich alles auf den großen Nenner Unicode. In HTML, XML, JavaScript und anderen Unicode-fähigen Programmiersprachen und Speichersystemen (Datenbanken) ist Unicode und dessen Kodierungen mittlerweile Standard. Schnittstellen von Diensten benutzen aus naheliegenden Gründen Unicode-Kodierungen.
Unicode steht als Ausgangspunkt fest, und da lässt sich auch nichts didaktisch vereinfachen. Es hat auch keinen Sinn, hinter Unicode zurückzufallen und wieder zum 8-Bit-Denken zurückzukehren. Kein Webautor, selbst jemand, der nur in Deutsch schreibt, kann heutzutage nur mit 256 Zeichen (abzüglich Steuerzeichen) arbeiten (bzw. kann zwischen verschiedenen, sich ausschließenden Zeichensätzen wählen). Wer Kontakt mit Unicode vermeiden will, kann sich höchstens in einen dunklen, schalldichten Raum einschließen, aber wer im Web aktiv ist, kommt nicht drumherum.
Gut, man könnte Unicode als großen, weit entfernten Horizont erwähnen, hinter dem die Sonne auf- und untergeht. So machte es SELFHTML: Unicode gibt es zwar, aber in der Praxis betrachten wir nur 8-Bit-ISO-Codetabellen mit denkbar einfacher Kodierung (1 Bit = 1 Zeichen). Die Rückanbindung an Unicode wurde nicht näher erläutert, ebensowenig echte Unicode-Kodierungen, die nicht nochmal einen Unter-Zeichenvorrat dazwischenschieben. Man weigerte sich, die fundamentale Umwendung des Denkens durchzumachen, dass alle im Computer gespeicherten und durchs Internet gepusteten Zeichen ganz bestimmt kodiert sind.
Das war einer der Gründe, warum aus SELFHTML die ganze Chose mit den Unicode-Zeichennummern nie klar wurde, obwohl sie in HTML und JavaScript an vielen Stellen benötigt wird. Ständig kommen Leute an: Himmel, wie bringe ich jetzt die-und-die Zeichen in meinem HTML, JavaScript usw. unter? Und was hat das mit den Nummern auf sich? Wieso sind die Umlaute kaputt oder wieso sehe ich ö statt ö usw., wenn ich das-und-das mache?
Es herrschte Unwissenheit und Gleichgültigkeit gegenüber dem Thema, weil letztlich alles trotzdem zu klappen schien (»Latin-1 ist Standard und gut ist«). Leute, die sich mit dem Thema auskannten, schrieben hochkomplizierte ultra-tolerante Software, sodass sich die anderen in der Fehlertoleranz-Hängematte ausruhten.
Mittlerweile sind geordnete, strenge Datenaustauschformate im Web alles und die gegenwärtigen Massenanwendungen sind vollkommen internationalisiert. Da viele jetzt auch die Vorteile der Internationalisierung begreifen, anstatt sich mit der möglichst kleinsten, in sich geschlossenen (Insel-)Lösung zufrieden zu geben, kommt das Thema Zeichenkodierung den Menschen überhaupt erst ins Bewusstsein. Da stoßen sie auf Unicode und dessen Kodierungen und merken erst einmal, dass sie eine ganz andere Sichtweise auf Datenverarbeitung bekommen.
Das ist wichtig und gut so - eine Umkehr zur vermeintlichen »Einfachheit« der 8-Bit-Denkweise ist weder praktikabel, noch wünschenswert, noch zielführend. Wirkliche Einfachheit findet sich in Unicode: Jedes Zeichen hat eine eindeutige Nummer in einer großen, geordneten Tabelle, es gibt nicht mehr dutzende unterschiedliche Winzigtabellen mit gleichen Nummern, aber unterschiedlichen Zeichen. Und als universelle Eingabe- und Ausgabe-Kodierung nimmt man standardmäßig UTF-8, womit man in fast allen Fällen richtig liegt. Dass damit durchaus die Einfachheit der Abbildung von Zeichen auf Byte verloren geht, ist zwar schade, letztlich aber nicht so wichtig. Das hat Gunnar schön auf den Punkt gebracht: Kein Denken in Bytes mehr, sondern ein abstrahiertes Denken in Zeichen und, falls nötig, Unicode-Nummern.
Mathias