Hallo,
Aah, ja. Mich wundert nicht mehr, dass die EDV keine neuen, bahnbrechenden Entwicklungen mehr hervorbringt, wenn sie nicht mal ihre Grundeinheiten eindeutig definieren kann.
Die Grundeinheit _ist_ definiert: 1 Bit.
Aber schon die Größe der Informationsmenge ist architekturspezifisch. Ist zwar auf der heutzutage erhältlichen Hardware stets 2, aber die Größe kann theoretisch bis unendlich gehen.
Bei mir sind jedenfalls 100KByte == 100 x 1024 x 8Bit
100KByte sind, wenn Du ein Byte als 8 Bit haben möchtest, (100 x 1000 x 8) Bit = 100.000 Bit.
Was Du da oben berechnest sind KiByte (Nach ISO, Nummer müßte ich jetzt raussuchen)
und eine Modemverbindung mit 43000Bps (Bit per second) Übertragungsgeschwindigkeit braucht 19,05s um diese 100KByte zu übertragen, oder nicht?
Da Du das Byte als 8 Bit gesetzt hast, ist das korrekt.
Weiterhin hat mein PC einen Arbeitsspeicher von 64MByte (nicht 64MOctets)
Der Arbeitsspeicher wird, so weit mir bekannt, im Gegensatz zu Festplatten immer noch in MiByte angegeben.
Wie groß das Byte ist, ist den Spezifikationen der jeweiligen HHersteller zu entnehmen, wird aber für gewöhnlich, wenn es sich um PC-Speicher handelt, als 8 Bit groß gesetzt.
und ein 16-Bit-Unichar benötigt 2Byte in diesem Arbeitsspeicher.
Wie Du schon richtig sagst: in _Deinem_ Arbeitsspeicher
Auch, wenn ich per Definition festlege, dass 1 16-Bit-Unichar == 1 CeeByte ist, wird mein Arbeitsspeicher davon nicht größer.
Sag' das bloß nicht laut, Du bringst sonst die Hersteller auf die dumme Idee, statt 128 MiByte Riegeln, 256 McByte zu verscherbeln!
Ja, ich weiß, 2,50 EUR in die Wortwitzkasse ;-)
so short
Christoph Zurnieden