gudn tach Christoph!
Wenn dem Rechner gesagt wird, das 1+1=3 ist und er tut das auch, dann ist das wann falsch?
naja, wenn ich zunaechst genau einen apfel habe und danach noch genau einen weiteren apfel bekomme, habe ich anschliessend genau zwei aepfel. nicht aber drei. dem computer wurde also fehlerhaftes rechnen beigebracht, wenn damit z.b. die addition von aepfeln bewerkstelligt werden soll.
Aha, sehr schön.
Und wenn er nicht mit Äpfeln rechnet? Sondern mit einem System, das durch sein Axiomensystem derart definiert ist, das 1+1 tatsächlich 3 ergibt? Ist das dann immer noch falsch?
einen satz spaeter folgt meine antwort darauf, aber dann halt nochmal:
computer _sollen_ i.a.r. solche "apfelprobleme" loesen. du sagst, dass sie dafuer nicht gebaut werden (oder?). ich sage, dass sie fuer nichts anderes gebaut werden.
Un weil der Mensh nicht in der Lage ist einen rehcner nach seinen Wünschen zu konstruieren, ist der Rechner fehlerhaft und nicht der Mensch?
Wie kommst Du zu dieser Annahme?
"fehlerhaft" und "fehlerhaft konstruiert" oder "so geschaffen, dass er fehlerhaft rechnet" werden hier synonym benutzt.
achtung! sethsche metapher:
wenn man ein kaputtes telefon kauft, dann sagt man "das telefon ist kaputt" oder "das telefon funktioniert nicht" und nicht jedes mal "in der produktionskette dieses telefonapparates hat wahrscheinlich jemand einen fehler gemacht".
Warum wird diesem Umstand eigentlich nicht abgeholfen? Doch nur weil's zu teuer ist, aus keinem anderem Grunde.
zu "teuer" in welchem sinne?
ein rechner, der gescheit rechnet, kann afaik derzeit noch nicht gebaut werden.
Dann muß man halt damit leben, das derartige Begrenzungen das direkte Mapping vom Rechner zum Menschen e.v.v. unmöglich machen und nicht einfach dem Rechner die Schuld zuschieben.
e.v.v.? "Elburger Volleybal Vereniging"? ;-) (ich weiss wirklich nicht, was diese abkuerzung bedeutet.)
ersteres tut man ja auch, da man kaum eine andere wahl hat.
letzteres ist etwas schwieriger. klar kann man einem ding ohne eigenes bewusstsein schwer eine schuld zuschieben (auch wenn es sehr oft gemacht wird a la "ah, du scheiss-computer, wo bleibt die wichtige e-mail, die ich dringend erwarte?" *g). aber wenn man sagt "der computer verrechnet sich", ist das erstmal frei von schuldzuweisungen, sondern bloss eine beobachtung.
angenommen es gaebe einen rechner, der mit unendlich vielen zahlen rechnen koennte. dann koennte er auch mit einer zahl rechnen, die groesser ist als die anzahl aller zustaende, die die bits in seinem endlichgrossen speicher annehmen koennten. und das geht nicht.
Aha, gibt es einen speziellen Grund dafür, das Du dem theoretischem Rechner einfach den Speicher begrenzt?
ja, ich gehe naemlich von computern aus, die man bauen kann.
Knusperklumpen bezog sich nicht auf fiktive computer.
"Bignums", Zahlen beliebiger Größe, scheinen für Dich nicht zu existieren.
fuer mich schon; aber nicht fuer computer (die man bauen kann).
die endlichkeit des speichers und die "lahme" geschwindigkeit der prozessoren _ist_ oft ein problem in der numerik.
Na, ich will nicht hoffen, das die Numerik eine reine Ingenieurswissenschaft ist obwohl es bei Dir den Anschein hat.
oh, den eindruck wollte ich nicht vermitteln. ein guter numeriker hat auch viel ahnung von funktionalanalysis.
Das Problem liegt aber wahrscheinlich eh wieder nur in schlecht gewählter Nomenklatur und nicht im Sinn.
s/schlecht gewählter/der/
dann stimme ich dir zu.
Was hier als Fehler bezeichnet wird, sind imaginäre Toleranzfelder, die sich aus dem mangelhaftem Mapping zwischen binärem und dezimalem Zahlensystem ergeben zusammen mit der strikten maximalen Größe mit der einige fest eingebaute und daher schnelle Eimer arbeiten können.
bin mir nicht ganz sicher, was du mit "imaginäre Toleranzfelder" meinst, aber stimme ansonsten zu.
Schon die Möglichkeit die Last auf mehrere Eimer zu verteilen wird standhaft ignoriert.
¿eimer?
Aus diesem Grunde vermehren sich diese Toleranzfelder in Abhängigkeit zur Benutzung o.a. Eimer und ein anschließendes Mapping in Dezimalzahlen ergibt eine Differenz, die hier als Fehler bezeichnet wird.
ja.
Zudem hat die Natur auch ihre eingebauten Grenzen: kleiner als rund 1,6 * 10^-35 Meter geht eh nicht.
Die Genauigkeit ist also so gewählt, das die Statistik nicht wesentlich vom Aktuellem abweicht.vom praktikablen rechnen mit planck-genauigkeit ist man noch weit(!) entfernt.
Wirklich noch _so_ weit? [...]
Also ich finde, so viel ist das gar nicht mehr, die doppelte Genauigkeit derzeitiger 64-Bit Rechner kommt da doch schon sehr nah dran, findest Du nicht?
bei realen zu berechnenden numerischen problemen bekommt man nicht diese genauigkeit hin, da sich fehler ja mit jeder operation steigern koennen.
aber das fuehrt zu weit von dem weg, was Knusperklumpens ansprach.
prost
seth