hi!
Vom Backprop-Lernalgorithmus für MLP-Netze. Konvergieren sollte es, weil sonst
die Abbildung vom Eingabe- auf den Ausgaberaum nicht stabil genug ist, um
ordentliche Ergebnisse zu liefern.
*g*
Weil nicht sein kann, was nicht sein darf?
Weil einem ein nicht konvergierendes Netz nicht bringt? Ansonsten liefert es ja im
Extremfall nach jedem Lernschritt andere Ergebnisse.
Ich glaube nicht, dass 20Q zum Lernen im Allgemeinen in der Lage ist.
Hat auch nie jemand behauptet. Das trifft aber wohl im Moment auf jedes künstliche
neuronale Netz zu.
Bei MLPs gibt es da IMHO gleich mehrere Probleme: Da sie einen globalen Ansatz
verfolgen,
Müssen Sie?
Wenn ich mich richtig erinnere, ja. Kann sein, dass man das durch sehr starke
Einschränkung der Verschaltung im MLP beeinflussen, aber nicht völlig abstellen kann.
Ist das nicht gerade einer der größten Nachteile von MLPs, im Gegensatz zum Beispiel
zu irgendwelchen RBF-Ansätzen?
wirken sich Änderungen an einer Stelle sehr schnell auf den Rest der ganzen
Abbildung aus.
Das tun sie. Ich behaupte, Du wirst bei 20Q keinen allgemeingültigen Algorithmus
finden, indem Du mehrmals an das Selbe denkst und dann einfach eine Regel hinter
den Fragestellungen suchst.
Verstehe ich nicht ganz, was du meinst... ;)
Wenn die Moderatoren nicht eingreifen, kannst Du das Ding völlig aus der Bahn
werfen, wenn Du die Fragen einfach irgendwie beantwortest und dann der erst
besten "Schätzung" zustimmst. Somit werden die Attractor-Täler bis zur
Unkenntlichkeit abgeflacht oder es bilden sich sogar völlig falsche.
Das ist klar, aber das ist bei jedem überwachten Lernansatz so.
Aber immerhin hast du es jetzt geschafft, dass ich nicht mehr sicher bin, welcher
Ansatz am besten geeignet ist, um dieses Problem zu lösen. Wahrscheinlich gibt es
mehrere mögliche Verfahren. Aber ich bin noch nicht überzeugt, dass da ein
klassisches MLP verwendet wird, da das meiner Erfahrung nach arge Probleme mit so
komplexen Problemen hat.
Hat man nicht im Prinzip eine Art lineare Abbildung aus einer globalen Wissensmatrix
und dem Antwortvektor des Benutzers? Das entsprechende Objekt müsste dann die
größte Komponente des Ergebnisvektors sein. Erinnert schon irgendwie an ein
neuronales Netz, nur dass da die Abbildung für gewöhnlich nicht linear ist.
bye, Frank!
Never argue with an idiot. He will lower you to his level and then beat you with experience.