Holladiewaldfee,
Ein Widerspruch, den ich nicht aufzulösen vermag.
Spielen wir "Psychofuzzi vs. Gehirnforscher" und stellen wir tolle Theorien zur "kapazitiven Beschränkheit des Sprachzentrums im Bezug auf die De- und Encodierung komplexer Strukturen gesprochener und geschriebener Sprachen" auf. Generieren / fälschen wir Statistiken über den durchschnittlichen Sprachwortschatz eines C++- / Perl- / PHP- / Basic-Programmierers und eines nicht mit Programmiererkenntnissen ausgestatteten Menschen. Vergleichen wir die durchschnittliche Anzahl an Fremdsprachen die ein Nichtprogrammierer beherrscht mit der eines Programmierers und sehen wir nach, wie sich die Sache verschiebt, wenn man die Programmiersprachen wie echte Sprachen zählt und mit welchem Faktor man eine Programmiersprache gegenüber einer echte Sprache werten müsste, um wieder zu einem Ausgleich zu kommen. Entwickeln wir anschließend ein Schema, das möglichst objektiv und einfach anhand einer einzelnen Zahl die Komplexität einer Sprache wiedergibt (z.B. Basic 0.3, PHP 0.7, Bayerisch 5.0, Englisch 9.6, Umgangs-Deutsch 10.3, Hochdeutsch 10.5, Chinesich 1544756.1 usw.), addieren wir anschließend die - ich nenne sie mal "Komplexitätszahlen" - der Sprachen und extrahieren wir dann die Erkenntnis, ob das Sprachzentrum eine gewisse Komplexitäts-Obergrenze aufweist usw. usf.
:)
Ciao,
Harry
(25.9)