Hallo Henry,
die Idee der "fuzzy logic" ist ja nicht so neu. Und neuronale Netze arbeiten auch nicht mit JA/NEIN, sondern mit Gewichtungen. Unser Gehirn ist nicht digital, sondern ein analoges Rückkopplungssystem.
Daraus folgt aber nicht, dass Intelligenz nur mit analogen Systemen machbar ist. Digitale Systeme können durchaus analoge Verhaltensweisen nachbilden.
Das Problem ist die massiv parallele Verarbeitung in unserem Gehirn, die ein Computer eben nicht beherrscht. Unser Gehirn hat ca 86 Milliarden Nervenzellen, die meisten davon interessanterweise im Kleinhirn. Ein Mikroprozessor hat, wenn's hoch kommt, 64 Kerne. Die sind zwar VIEL schneller als ein Neuron, aber viele Milliarden Neuronen im Parallelbetrieb simulieren können sie auch nicht. Frage ist natürlich: Muss man das tun? Kann man das Gehirn vielleicht in "Funktionseinheiten" teilen und diese anders als durch parallel arbeitende Neuronen realisieren? Unser Gehirn hat ja auch deshalb so viele Neuronen, weil das einzelne Neuron nicht sonderlich fix ist (2ms für einen Puls im Aktionspotenzial, wenn ich Wikipedia richtig verstehe.
Aber wir verstehen einfach nicht, wie die Nervenzellen interagieren. Wir kennen Details, wir wissen über einzelne Neuronen Bescheid, wir können Hirnregionen benennen - aber was hilft mir in einem Mikroprozessor das Wissen über Transistoren und die Info, dass hier die ALU ist und dort der Cache. Deswegen weiß ich immer noch nicht wie die ALU rechnet. Was IEEE-Fließkommazahlen sind. Was Branch Prediction ist und wie eine Meltdown-Attacke funktioniert. Was ein Quicksort tut oder wie ein Filmbild decodiert wird. Es wird auch im Gehirn einen Stack von Algorithmen geben, teils in HardWetware, und es wird sicher auch eine Form von Software geben. Hirnforscher werden sicherlich ein paar Einblicke haben, aber ich glaube nicht, dass sie schon mehr wissen als z.B. Urmenschen über das Weltall. Ganz zu schweigen von der Frage, wie die Millionen Jahrhunderte alte Firmware unserer DNA das Gehirn eines Fötus eigentlich bootet.
Deswegen werden KI-Systeme, die wir bauen, ganz anders realisiert sein. Sie haben Grenzen, man wird sie zunächst auf kognitive Leistungen trimmen. Einfach weil nur begrenzte Rechnenleistung da ist. Und niemand, der ein KI-System bezahlen muss, wird Milliarden dafür ausgeben wollen, dass ihm die KI dann sagt: „Ich finde Ihren Wunsch unethisch. Das tue ich nicht!“ Wer KI baut, will einen intelligenten, aber gefügigen Sklaven. Keine Persönlichkeit. Das ist die Gefahr.
Rolf
sumpsi - posui - clusi