Hallo,
Weil einem ein nicht konvergierendes Netz nicht bringt? Ansonsten liefert es ja im
Extremfall nach jedem Lernschritt andere Ergebnisse.
Ja, das passiert sogar mit Sicherheit. Andere Ergebnisse müssen aber ja nicht schlechtere Ergebnisse sein. Selbst das geschieht aber. Technische Neuronal-Netze sind ähnlich beeinflussbar, wie biologische.
Bei MLPs gibt es da IMHO gleich mehrere Probleme: Da sie einen globalen Ansatz
verfolgen,
Müssen Sie?
Wenn ich mich richtig erinnere, ja. Kann sein, dass man das durch sehr starke
Einschränkung der Verschaltung im MLP beeinflussen, aber nicht völlig abstellen kann.
Wenn Du das so meinst, habe ich den Term "globaler Ansatz" missverstanden. Ich dachte Du meinst "global" im Sinne von allumfassend. Jedes Neuronalnetz ist natürlich "global" im Sinne von bedeutungsunabhängig, solange bis man Bedeutungen durch Trainig in es hineingetragen hat. Ein verschaltetes aber untrainiertes Neuronalnetz kann sowohl zur Wort-Assoziation als auch zur Bilderkennung gebracht werden. Hat das Training aber erst mal begonnen und sind damit Verbindungen (in der Biologie die Synapsen) gestärkt oder geschwächt und hat damit die Herausbildung von Attractor-Gebirgen begonnen, dann ist ein "Umtrainieren" schwierig. Selbst ein so "globales" Gebilde wie unser Gehirn bildet Teilbereiche für spezielle Aufgaben heraus.
Ist das nicht gerade einer der größten Nachteile von MLPs, im Gegensatz zum Beispiel
zu irgendwelchen RBF-Ansätzen?
Meinst Du mit RBF Radial Basis Functions? Wenn ja, dann verstehe ich nicht, warum Du das als Gegensatz zum MLP siehst. Dass in der Biologie Neuron nicht gleich Neuron ist und einige mit Sicherheit sehr spezifische Eigenschaften haben, ist doch kein Gegensatz zum Multilayer-Perzeptron, sondern eine Erweiterung. Dafür sehe ich allerdings noch keine technische Umsetzung.
Hat man nicht im Prinzip eine Art lineare Abbildung aus einer globalen Wissensmatrix
und dem Antwortvektor des Benutzers? Das entsprechende Objekt müsste dann die
größte Komponente des Ergebnisvektors sein.
Hm, also doch ein Algorithmus? Vereinfacht:
Es geht um ein Tier:
1. Ist es normalerweise farbig?
Ja -> Folgende weitere Fragen führten zum Erraten des Subjekts
50% -> 2. Sieht man es in einem Zoo?
60% -> 2. Ist es flauschig?
70% -> 2. Kann es kratzen?
Nein -> Folgende weitere Fragen führten zum Erraten des Subjekts
60% -> 2. Ist es flauschig?
70% -> 2. Kann es kratzen?
80% -> 2. Sieht man es in einem Zoo?
usw.
Das glaube ich nicht.
viele Grüße
Axel