Hej Christian,
Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.
Ich weiß nicht, wo du das her hast
Aus dem Film. Dort wird an einer Stelle behauptet, dass versucht würde, menschliches Lernen durch neuronale Netze nachzubilden, indem manche „Wege“, die zu sinnvollen Ergebnissen führen, verstärkt gegangen werden und Wege, die zu nichts geführt haben, „verwaisen“.
Interessant ist ja der Roboter, mit dem man herausfinden wollte, ob er sich selber und seine Möglichkeiten erkennen kann. Das hat man versucht herauszufinden, indem man ihn untrainiert ohne irgendein Wissen die Aufgabe gab, sich fortzubewegen. Dabei hat er verschiedene Impulse gesendet und eine Virtualisierung dessen, als was er sich selber verstanden hat, war tatsächlich der tatsächlichen räumlichen Erscheinung sehr ähnlich.
Am interessantesten war aber etwas, was niemand vorhergesehen hatte. Das Teil hat beim Versuch, gehen zu lernen auch seine Umgebung beobachtet und offenbar festgestellt, dass das, was um ihn herum passiert, etwas mit ihm zu tun hat.
Ein Neuron hat die Gesichter der umstehenden Personen beobachtet. Da dieses Neuron ziemlich aktiv war und nicht „verwaiste“, muss dem Computer klar geworden sein, dass das Auswerten der Reaktionen auf seine Versuche zur Erfüllung der Aufgabe sinnvoll ist.
So naheligend das auch ist (unsere Gesichter verändern sich ja, wenn wir uns über den Erfolg freuen oder über den Misserfolg lachen oder interessiert beobachten): niemand hatte das vorhergesehen.
, aber das stimmt so nicht. Wie maschinelles Lernen abläuft und funktioniert ist bekannt und sehr genau dokumentiert. Die Algorithmen sind seit den 70ern bekannt.
Und dennoch ist es nicht zu begreifen. Wenn wir unser Gehirn nachzubauen versuchen (und es vielleicht sogar gelingt), bevor wir es verstehen (was wir ja noch nciht tun) — wieso sollten wir dann das Ergebnis verstehen (obwohl uns diese Experimente beim Verständnis helfen werden).
Gerade in diesem Versuch, bei dem es darum ging, ob eine Maschine ein Verständnis für sich, seinen „Körper“ entwickeln kann, hat man alte Erkenntnisse außer acht gelassen, z.B. dass Beobachtung die Ergebnisse verändern kann (besonders, wenn es um die Erforschung einer Form von „Verhalten“ geht).
Einem Computer, der nie vergisst, wäre das vermutlich nicht passiert.
Wenn du meinst, dass nicht verstanden wird, warum eine AI eine Entscheidung trifft: das ist häufig wahr. Es ist zwar möglich nachzuvollziehen, welcher Lernvorgang hinter einer Entscheidung liegt, aber das ist zeitaufwendig und schwer und muss für jede Entscheidung einzeln nachvollzogen werden.
Als Erklärung für das Nichtverstehen wurde die Komplexität der Technik genannt. Bei Google arbeiten inzwischen 10 Millionen Server im Verbund, die nächste Ausbaustufe wird 100 Millionen Server miteinander vernetzen.
Die AI bei Google ist bereits jetzt fleißig. Sie soll beispielsweise helfen, die internen Abläufe zu optimieren um energieeffizenter zu werden.
Die Billionen von Operationen können von uns nicht mehr nachvollzogen werden, weil wie du sagst, das nur für einzelne, relativ kleine Entscheidungen möglich ist. Um das nachzuvollziehen, was dort in sehr kurzer Zeit an Berechnungen statt gefunden hat, brauchen wir dann sehr lange.
Und die Rechner werden immer schneller — sie werden uns also immer schneller davonrennen.
Bevor wir eine Entscheidung oder Entwicklung verstehen, werden also Billionen von weiteren Entscheidungen getroffen.
Natürlich werden Modelle helfen und Theorien, man wird Entscheidungen Klassifizieren usw.
Aber ich denke nicht, dass wir noch mal in der Lage sein werden, zu begreifen was da im Detail vor sich geht in dem Sinn, das wir das Lernverhalten von neuronalen Netzen vorhersehen können. Bisher ging das. Wir konnten vorhersehen, dass ein Computer die Frage: Was ist 2+2? mit 4 beantworten würde.
Die neuronalen Netze lernen und verändern sich ja selbständig und wir geben zwar die Regeln vor, aber ich bin mir sicher, dass auch diese Regeln schon maschinell optimiert werden.
Zwei Dinge sind hier besonders interessant: der von MS entwickelte autonome Chatbot, der zum Rassist wurde, hat Texte so geschrieben, dass er möglichst viele Likes bekam. Das ist doch ein Spiegel der Mehrheit. Wir wollen das nicht wahrhaben, aber der Mehrheit von uns gefallen offenbar rassistische Äußerungen. Damit wickelt man uns um den Finger.
Noch mal wir wollen das vermutlich einfach nicht wahr haben, dass wir uns u.U. genetisch bedingt unter Unsergleichen wohler fühlen, als unter Fremden. Dabei können Fremde durchaus Teil werden von dem, was wir als "wir" verstehen.
Wenn wir das akzeptieren ist das ein erster, wichtiger Schritt, um Fremde aufnehmen zu können und uns auf Neues freuen zu können.
Hier kommt wieder das Vertrauen ins Spiel. Offenbar sind viele Menschen der Auffassung, dass Roboter so programmiert werden können, dass sie uns nur gutes tun. Spätestens wenn (ich mag schon gar nicht mehr "falls" sagen) die eigene "Meinungen" äußern — allein auf Wahrheiten und korrekten, logischen Rückschlüssen beruhend — die wir nicht hören wollen, weil wir etwas nciht wahrhaben wollen, werden Robotern so ablehnend gegenüber stehen wie allem Fremden. Es gibt so einen unausgesprochenen Konsenz im Zwischenmenschlichen, höflich miteiander umzugehen und vielleicht auch mal dem Gegenüber eine offensichtlich Falsche Meinung zu lassen.
Roboter (und @Gunnar Bittersmann oder @pl 😉) halten sich da mitunter nicht dran, weil sie recht haben oder glauben recht zu haben.
Und sie bleiben dann auch bei ihrer Meinung. Da kann man schon mal dran testen, wie man sich einem Roboter gegenüber fühlt, der tatsächlich und objektiv unter Zuhilfename aller ektuellen Erkenntnisse immer wieder recht hat, auch da, wo es uns die Wahrheit so überhaupt nciht gefällt.
Das fühlt sich so an wie:
Ich: „Ja. Ist schon asi, wenn ausgerechnet Behinderte Menschen mit meiner webseite nciht zurecht kommen, Die haben es ja sowieso schon schwer im Leben. Das ist aber kompliziert und ich habe noch so viel anderes zu tun. - Aber eigentlich muss ich das doch cniht tun, weil ich habe ja nur Filme auf meiner Webseite, die können Blinde eh nciht sehen. Puh Glück gehabt“
Roboter: „Können wohl, du musst nur eine Audiodeskription mitliefern“
Ich: "Häh? - Das wäre dann ja noch mehr Arbeit! Ich kann ja verstehen, dass die auch mit ihrem womöglich sehenden Partner gemeinsame Abende auf dem Sofa verbringen möchten. Wenn das nur nciht so aufwändig wäre. Und das nur für die paar Blinden"
Roboter: „Das hätte aber auch für alle Nichtbehinderten menschen folgende zehn Vorteile: 1.) …“
Ich: „Och menno, jetzt lass mich doch, ist mir einfach zu viel. Wie soll ich das alles denn schaffen? — Und wenn ich die Blinden jetzt unterstütze, dann ist das doch unfair den Tauben gegenüber. Die können ja mit dem Film eh ncihts anfangen.“
Roboter: „Doch, du musst nur Untertitel mitgeben.“
Ich: „Das darf doch nicht wahr sein. Für die soll ich jetzt auch noch etwas tun? Das wird ja immer schlimmer.“
Was ich damit sagen will: eigentlich wissen wir ganz oft, dass wir nur zu faul sind etwas zu tun. In Zukunft haben wir vielleicht einen ständigen Mahner an unserr Seite, der nie müde wird, der nie die Geduld verliert uns zum 1 Millionsten Male zu sagen, dass wir etwas eigentlich notwendiges nur aus Faulheit unterlassen. Das kann erheblich nerven!
😉
Und das ist noch das geringste Übel.
Beim derzeitgen Stand der Technik können wir also sehr viel über uns lernen, wenn wir uns mit maschinellem Lernen beschäftigen und ich habe die Befürchtung, vieles davon wird uns nciht gefallen (obwohl Fachleuten das sicher bereits bewusst ist und die es auch veröffentlicht haben, was sie herausgefunden haben - wir weigern uns nur, es lesen oder zu glauben).
Marc