Hallo,
danke. Das verstehe ich schon. Aber mir geht es erstmal nur um die Sekunden. Es sind also 252455616000 Sekunden für den zeitraum von 8000 Jahren. Diese Zahl kann ich aber doch auch darstellen, wenn ich weniger als 64bit habe? Irgendwie denke ich wohl falsch. Aber wo genau liegt denn mein Denkfehler?
es gibt keinen Denkfehler. Dir fehlt nur die Information, dass es in der zeitgenössischen EDV zwischen 32 und 64bit nichts gibt. Die 252'455'616'000 Sekunden könnte man mit 38bit darstellen, aber es gibt Systeme, die 32bit auf einmal verarbeiten können, und es gibt Systeme, die 64bit auf einmal verarbeiten können. Alles dazwischen ist blanke Theorie.
Ciao,
Martin
--
Auch in Eckkneipen geht es manchmal rund.
Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
Auch in Eckkneipen geht es manchmal rund.
Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(