Mathias Bigge: Triviale Maschinen - selbstreferentielle Maschinen

0 50

Triviale Maschinen - selbstreferentielle Maschinen

Mathias Bigge
  • sonstiges
  1. 2
    Eternius
    • menschelei
    1. -3
      Jury
      1. 1
        Lachgas
      2. 0
        seth
      3. 0
        Fabian Transchel
  2. 0
    seth
    1. 0
      Mathias Bigge
      1. -1
        Fabian Transchel
        1. 0
          at
      2. 0
        Orlando
        1. 0

          Threaddrift: Der freie Wille - oder die Illusion der Realität

          Fabian Transchel
          • menschelei
          1. 0
            Orlando
            1. 0
              Fabian Transchel
        2. 0
          Mathias Bigge
        3. 0
          Ingo Turski
          1. 0
            Mathias Bigge
      3. 0
        Julian von Mendel
        1. 0
          at
          1. 0
            Julian von Mendel
            1. 0
              at
  3. 0
    Thomas J.S.
    1. 0
      Mathias Bigge
      1. 0
        Tim Tepaße
        1. 0
          Thomas J.S.
          1. 0
            Richard Rüfenacht
            1. 0
              Tim Tepaße
              1. 0
                Richard Rüfenacht
          2. 0
            Tim Tepaße
            1. 0
              Mathias Bigge
      2. 0
        Thomas J.S.
  4. 0
    Richard Rüfenacht
    1. 0
      Tim Tepaße
      1. 0
        Richard Rüfenacht
        1. 0
          Tim Tepaße
          1. 0
            Mathias Bigge
      2. 0
        Thomas J.S.
        1. 0
          Tim Tepaße
          1. 0
            Thomas J.S.
            1. 0
              Richard Rüfenacht
    2. 0
      Mathias Bigge
      1. 0
        Richard Rüfenacht
        1. 0
          Mathias Bigge
          1. 0
            Richard Rüfenacht
            1. 0
              Mathias Bigge
  5. 0
    Jörg Peschke
    1. 0
      Mathias Bigge
      1. 0
        Anonymous
        1. 0
          Mathias Bigge
          1. 0
            Anonymous

Hi alle,

in der Kybernetik und der modernen Kommunikationstheorie gibt es den Begriff der trivialen Maschine, die auf einen bestimmten Input eine vorhersehbaren Output liefert. Der Mensch als nichttriviale Maschine kann in bestimmten Situationen als triviale Maschine funktionieren. Dies ist ein besonderer Zustand, da normalerweise aufgrund einer selbstreferentiellen Schleife in der Kommunikation nichttrivial reagiert wird.

Mich würden nun zwei DInge interessieren:
1. Wie werden diese Begriffe in der Informatik verwandt?
2. Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

Viele Grüße
Mathias Bigge

  1. Hallo,

    ja wird in der Informatik als Verkaufsstrategie angewandt:
    Ein abgestrüztes Betriebssystem produziert normalerweise, bei gleichem Absturzgrund, einen selbigen fehler (trivial)
    Windows hingegen produziert zu einem Absturzgrund (nichttrivial) verschiedene Fehler, falls das noch nicht aussreicht, windows ist auch noch ubernichttrivial, so es zu beliebigen Fehlern beliebige Abstürze produzieren kann und vice versa.

    gruss

    --
    no strict;
    no warnings;
    Ich weiss es nicht, aber ich bin mir nicht sicher.
    Kluge Leute sind auch nur Menschen.
    1. ja wird in der Informatik als Verkaufsstrategie angewandt:
      Ein abgestrüztes Betriebssystem produziert normalerweise, bei gleichem Absturzgrund, einen selbigen fehler (trivial)
      Windows hingegen produziert zu einem Absturzgrund (nichttrivial) verschiedene Fehler, falls das noch nicht aussreicht, windows ist auch noch ubernichttrivial, so es zu beliebigen Fehlern beliebige Abstürze produzieren kann und vice versa.

      sinnvolles posting

      1. Hallo Jury!

        sinnvolles posting

        Ich fand es erhellender als deins.

        ℆, ℒacℎgas

        --
        Bei der intendierten Realisierung der linguistischen Simplifizierung
        des regionalen Idioms resultiert die Evidenz der Opportunität extrem
        apparent, den elaborierten und quantitativ opulenten Usus nicht assi-
        milierter Xenologien konsequent zu eliminieren!
      2. gudn tach!

        sinnvolles posting

        und wieder einmal bleibt (zumindest mir) die frage, ob das ironisch gemeint war oder nicht.

        falls du es nicht sinnvoll fandst, wuerde ich mich ueber eine entsprechende erklaerung freuen.

        falls du es sinnvoll fandst, solltest du dir ueberlegen, ob es naechstes mal nicht vielleicht besser waere, das anders auszudruecken. mit nur zwei worten und ohne jegliche betonung kann man als leser meist alles und nichts anfangen.

        in beiden fall stimme ich jedenfalls Lachgas zu.

        prost
        seth

      3. Hallo verehrte Jury,

        ja wird in der Informatik als Verkaufsstrategie angewandt:
        Ein abgestrüztes Betriebssystem produziert normalerweise, bei gleichem Absturzgrund, einen selbigen fehler (trivial)
        Windows hingegen produziert zu einem Absturzgrund (nichttrivial) verschiedene Fehler, falls das noch nicht aussreicht, windows ist auch noch ubernichttrivial, so es zu beliebigen Fehlern beliebige Abstürze produzieren kann und vice versa.

        sinnvolles posting

        Dir sei ein Klick auf "hilfreich" angeraten, anstatt das Forum vollzuspammen. Überdies sei deinem Ironiedetektor eine Jahresinspektion angeraten. Danke.

        Grüße aus Barsinghausen,
        Fabian

        --
        "It's easier not to be wise" - < http://www.fabian-transchel.de/kultur/philosophie/ialone/>
  2. gudn tach Mathias!

    Begriff der trivialen Maschine, die auf einen bestimmten Input eine vorhersehbaren Output liefert.

    in der informatik spricht man da meistens von (in-)deterministischen automaten. afaik wird "triviale maschine" kaum benutzt.

    selbstreferentiellen Schleife

    meinst du damit eine schleife die immer alle bisherigen erfahrungen mit in die neuen berechnungen einfliessen laesst? eine rekursion?

    Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

    relativ. betriebssysteme wie unix, mac os oder windows sind so dermassen kompliziert, dass man sie, als black box betrachtet, durchaus als indeterministisch einstufen kann (siehe Eternius' posting).
    jedoch sind sie das ja eigentlich nicht. "eigentlich" heisst hier: quellcode zeile fuer zeile gelesen und verstanden, was praktisch unmoeglich ist.
    es gibt keine wirklich zufaelligen spruenge bei normalen computern, weshalb man streng genommen auch nicht von indeterministischen automaten sprechen duerfte. an dieser stelle koennte man nun ueber zufall diskutieren. ich will aber erst wissen, ob das ueberhaupt in die richtung geht, die der beantwortung deiner frage dienlich sein koennte.

    prost
    seth

    1. Hi seth,

      Begriff der trivialen Maschine
      in der informatik spricht man da meistens von (in-)deterministischen automaten.

      Könnte das gleiche bedeuten, oder?

      selbstreferentiellen Schleife
      meinst du damit eine schleife die immer alle bisherigen erfahrungen mit in die neuen berechnungen einfliessen laesst? eine rekursion?

      So ungefähr scheint es bei sozialen Systemen zu funktionieren, vielleicht auch bei psychischen Systemen. Auch die biochemischen Mikroprozesse funktionieren vielleicht nach dem Prinzip der trivialen Maschine, ähnlich wie die Programmzeilen beim Rechner. Meine viellleicht naive Frage ist, ob auch beim Rechner schon heute die Komplexität der Mikrooperationen in nichttriviale Antworten umschlägt, also in Antworten, die zwar prinzipiell, de facto aber nicht mehr auf triviale Mikroprozesse zurückzuführen sind.

      In der sozialen Kommunikation gibt es offensichtlich trotz der zugrundeliegenden chemischen und physikalischen Prozesse Momente von Unberechenbarkeit. Dies wird systemtheoretisch auf eine Art von selbstreferentieller Schleife und auf doppelte Kontingenz zurückgeführt. Das heißt:

      1. Die kommunizierenden Systeme beziehen die aktuelle Kommunikation auf kommunikative Erfahrungen zurück.
      2. Die kommunizierenden System stellen Vermutungen über Reaktionen und Verstehensprozesse des anderen Systems an.
      3. Beide Systeme wissen, dass dies wechselseitig geschieht.

      Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?
      relativ. betriebssysteme wie unix, mac os oder windows sind so dermassen kompliziert, dass man sie, als black box betrachtet, durchaus als indeterministisch einstufen kann (siehe Eternius' posting).
      jedoch sind sie das ja eigentlich nicht. "eigentlich" heisst hier: quellcode zeile fuer zeile gelesen und verstanden, was praktisch unmoeglich ist.

      Die Frage ist, ob das theoretisch nicht auch für menschliche Kommunikation gelten müsste. Du verstehst aber, was ich meine. Das Beispiel der Betriebssysteme würde ich aber noch als trvial einstufen, da hier tatsächlich eine gewisse Unübersichtlichkeit herrscht, der Rückbezug also schwierig ist, aber dennoch ein bestimmter Input immer den gleichen Output produziert.

      es gibt keine wirklich zufaelligen spruenge bei normalen computern, weshalb man streng genommen auch nicht von indeterministischen automaten sprechen duerfte. an dieser stelle koennte man nun ueber zufall diskutieren. ich will aber erst wissen, ob das ueberhaupt in die richtung geht, die der beantwortung deiner frage dienlich sein koennte.

      Das tut es. Allerdings geht meine Frage nicht so sehr in Richtung Zufall, auch wenn ich weiß, dass wirkliche Zufälligkeit nicht leicht zu implementieren ist, sondern eher in Richtung auf komplexe Programmkonstrukte, die systematisch Kontingenz, also nicht voraussagbares Verhalten produzieren, das dennoch nicht ganz zufällig ist.

      Ich hätte eher auf Beispiele aus den Bereichen künstliche Intelligenz oder neuronale Netze gesetzt.

      Viele Grüße
      Mathias Bigge

      1. Hi,

        es gibt keine wirklich zufaelligen spruenge bei normalen computern, weshalb man streng genommen auch nicht von indeterministischen automaten sprechen duerfte. an dieser stelle koennte man nun ueber zufall diskutieren. ich will aber erst wissen, ob das ueberhaupt in die richtung geht, die der beantwortung deiner frage dienlich sein koennte.
        Das tut es. Allerdings geht meine Frage nicht so sehr in Richtung Zufall, auch wenn ich weiß, dass wirkliche Zufälligkeit nicht leicht zu implementieren ist, sondern eher in Richtung auf komplexe Programmkonstrukte, die systematisch Kontingenz, also nicht voraussagbares Verhalten produzieren, das dennoch nicht ganz zufällig ist.

        Ich hatte hier mal einen kaputten Riegel RAM, der hat aber sowas von unvorhersehbare Ergebnisse gebaut, das glaubt man nicht. :)

        Grüße aus Barsinghausen,
        Fabian

        --
        "It's easier not to be wise" - < http://www.fabian-transchel.de/kultur/philosophie/ialone/>
        1. Hallo.

          Ich hatte hier mal einen kaputten Riegel RAM, der hat aber sowas von unvorhersehbare Ergebnisse gebaut, das glaubt man nicht. :)

          Ja, die Ergebnisse von Schokoriegeln sind wesentlich leichter vorhersehbar.
          MfG, at

      2. Hallo Mattes,

        […] Auch die biochemischen Mikroprozesse funktionieren vielleicht nach dem Prinzip der trivialen Maschine, ähnlich wie die Programmzeilen beim Rechner.

        Ja. Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

        Meine viellleicht naive Frage ist, ob auch beim Rechner schon heute die Komplexität der Mikrooperationen in nichttriviale Antworten umschlägt, also in Antworten, die zwar prinzipiell, de facto aber nicht mehr auf triviale Mikroprozesse zurückzuführen sind.

        Nein, die digitale Welt kennt abgesehen von Fehlfunktionen keinen Zufall.

        In der sozialen Kommunikation gibt es offensichtlich trotz der zugrundeliegenden chemischen und physikalischen Prozesse Momente von Unberechenbarkeit.

        Trotz oder wegen ihnen?

        1. Die kommunizierenden Systeme beziehen die aktuelle Kommunikation auf kommunikative Erfahrungen zurück.

        Ja.

        1. Die kommunizierenden System stellen Vermutungen über Reaktionen und Verstehensprozesse des anderen Systems an.
        2. Beide Systeme wissen, dass dies wechselseitig geschieht.

        Nein, von „Wissen“ würde ich nicht sprechen, das setzte ein Bewusstsein voraus. Es ist möglich, dass Erfahrungen in Form von ausgelatschten Pfaden in jedem Teilbereich des Gehirns existieren, aber deren interne Kommunikation lässt sich bestenfalls mit einer hohen Wahrscheinlichkeit vorhersagen.

        Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

        Meiner Meinung nach nicht. Alles ist trivial.

        betriebssysteme wie unix, mac os oder windows sind so dermassen kompliziert, dass man sie, als black box betrachtet, durchaus als indeterministisch einstufen kann (siehe Eternius' posting).

        In ihrer Gesamtheit mag das zutreffen, aber welche Aufgabe hat ein Betriebssystem zu meistern, die nicht auf zig relativ kleine und somit nachvollziehbare Prozesse aufgeteilt wird?

        jedoch sind sie das ja eigentlich nicht. "eigentlich" heisst hier: quellcode zeile fuer zeile gelesen und verstanden, was praktisch unmoeglich ist.

        Entsprechend leistungsfähige Hardware vorausgesetzt wäre das möglich.

        Die Frage ist, ob das theoretisch nicht auch für menschliche Kommunikation gelten müsste.

        Bei all dem, was das Gehirn während einer Unterhaltung zu leisten hat kann es schon zu Fehlern kommen, keine Frage.

        Ich hätte eher auf Beispiele aus den Bereichen künstliche Intelligenz oder neuronale Netze gesetzt.

        Dass eine Nachbildung mehr Entscheidungsfreiheit als das Gehirn selbst hat bezweifle ich.

        Grüße
        Roland

        1. Hallo Roland,

          […] Auch die biochemischen Mikroprozesse funktionieren vielleicht nach dem Prinzip der trivialen Maschine, ähnlich wie die Programmzeilen beim Rechner.

          Ja. Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

          Ja und nein. Ich stimme dir zu, dass der freie Wille eine Illusion ist, was aus meiner Sicht allerdings _nicht_ die Konsequenz hat, dass "cogito, ergo sum" _keine_ Gültigkeit mehr hat.

          Grüße aus Barsinghausen,
          Fabian

          --
          "It's easier not to be wise" - < http://www.fabian-transchel.de/kultur/philosophie/ialone/>
          1. Hallo Fabian,

            Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

            Ich stimme dir zu, dass der freie Wille eine Illusion ist, was aus meiner Sicht allerdings _nicht_ die Konsequenz hat, dass "cogito, ergo sum" _keine_ Gültigkeit mehr hat.

            Ich glaube nicht, dass du das denkst. ;-) Wie erklärst du dir deine Gedanken?

            Grüße
            Roland

            1. Hi,

              Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

              Ich stimme dir zu, dass der freie Wille eine Illusion ist, was aus meiner Sicht allerdings _nicht_ die Konsequenz hat, dass "cogito, ergo sum" _keine_ Gültigkeit mehr hat.

              Ich glaube nicht, dass du das denkst. ;-) Wie erklärst du dir deine Gedanken?

              Nun, zunächst scheint es mir zweckmäßig einige Termini zwecks gegenseitiger Verständlichkeit festzulegen. Kant hat in seiner Erkenntnistheorie Descartes "cogito, ergo sum" aufgegriffen (wobei er freilich seinen Gottesbeweis ablehnt und umgeht - das ist aber eine andere Geschichte) und den Menschen als die Symbiose aus seiner physischen (res extensa) und seiner gedanklichen (res cogitans) Erscheinung "erkannt". Die physische Seite unseres "Problems" ist die Tatsache, dass die gedankliche "Existenz-Ebene" nun also eine Illusion sei. Nach Kant ist neben der begrenzten Physis (wir wissen alle wie das mit dem Schweben oder Durch-Wände-Gehen ist :)) die res cogitans frei, also nicht per se eingeschränkt (während ihre Ethik sich im Transzendentalen erschöpft, aber auch das kann uns an dieser Stelle weitesgehend egeal sein).

              Solange ich also "denke" ich bin frei, so bin ich im Geiste frei, auch wenn das nur eine Illusion sein sollte, selbst wenn die Entscheidung "zur geistigen Existenz" selbst nur eine Illusion ist. Ich kann für mich (ob determiniert, gewollt oder von den Synapsen aufoktroyiert oder nicht) nur sagen, dass ich frei bin, und damit bin ich es, denn es gibt weder eine Kontrollmöglichkeit für mich (was logisch ist, denn ich kann nicht aus mir heraustreten und betrachten, in welchem definierten zustand ich mich befinde), noch gibt es eine Kollision mit dem, was "ausserhalb des Geistes" (oder seiner Illusion) "wirklich" ist. Du könntest also zu mir oder meiner Wahrnehmung (so man das trennen kann, was man nach deinen Ausführungen ohne weiteres vollbringen würde) sagen, dass ich aus deiner Sicht keinen freien Willen habe und mein Bewusstsein eine Illusion ist, aber ich kann das nicht zu mir selbst sagen, ich kann es nicht einmal selbst denken, und das ist aus meiner Sicht ein klares Zeichen für meine These, da einem vollständig definierbaren Organismus ohne Weiteres der Zustand "ich bin fremdgesteuert" (wahlweise zu ersetzbar mit "wahrhaftig kausal") eingegeben werden kann. Im Gegensatz zu diesem durchaus vorstellbaren Zustand _eines anderen_ kommen im eigenen Geiste an der Stelle zwangsweise Fragen auf wie "was würde ich denken, wenn ich keinen freien Wille hätte". Damit kommen wir zum gewichtigsten Punkt, der am ehesten rationaler Natur denn romantischer Verklärung der eigen Existenz ("kann ich wollen, dass ich keinen freien Wille habe?") ist: Wenn das Bewusstsein kein Ausdruck eines autonomen, indeterminstischen Systems ist, warum hat die Evolution uns damit ausgestattet? Wenn unsere Entscheidungen ohnehin durch die Bedingungen ihres Zustandekommens definiert sind, dann ist ein Bewusstsein nicht nur überflüssig, sondern sogar hinderlich, denn Tiere (genau hier ist aus meiner Sicht die Grenze zum Hominiden erreicht) ohne Bewusstsein sind viel eher in der Lage sich nach komplexen aber erfassbaren Bedingungen zu verhalten - und das auch reproduzierbar zu tun.

              Grüße aus Barsinghausen,
              Fabian

              --
              "It's easier not to be wise" - < http://www.fabian-transchel.de/kultur/philosophie/ialone/>
        2. Hi Orlando,

          […] Auch die biochemischen Mikroprozesse funktionieren vielleicht nach dem Prinzip der trivialen Maschine, ähnlich wie die Programmzeilen beim Rechner.
          Ja. Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

          Laut Systembegriff liegst Du falsch, da Systeme laut Theorie über Techniken verfügen, Kontingenz zu produzieren. Dein Denkmodell läuft eher

          • auf eine Maschinenmetapher hinaus,

          ergänzt um eine sehr prinzipielle

          • deterministische Idee von der Funktion psychischer Systeme aufgrund der Naturgesetze, die für ihre Bauteile gelten.

          So ist es aus Deiner Sicht nur eine Frage der Zeit, bis man allen Anschein von Freiheit als verdeckte Naturnotwendigkeit enttarnen könnte. Dabei vergisst Du vielleicht, dass auch die Maschinenmetapher nur ein vielleicht zu simples Modell darstellt.

          Ich habe inzwischen einiges gelesen und auch in der modernen Naturwissenschaft, vor allem in der Hirnforschung findest Du durchaus Argumente für beide Positionen vertreten. Ich lege da am Wochenende nochmal nach. Die Kantische Position, die Fabian ja bereits in wesentlichen Aspekten dargestellt hat, findet sich dabei auch in den Texten aus der aktuellen Forschung wieder. Mir scheinen zur Zeit für psychische und soziale Systeme systemtheoretische Überlegungen interessanter zu sein.

          Nein, die digitale Welt kennt abgesehen von Fehlfunktionen keinen Zufall.

          Aber durchuas Versuche, ihn herzustellen oder ihm auf die Spur zu kommen.

          In der sozialen Kommunikation gibt es offensichtlich trotz der zugrundeliegenden chemischen und physikalischen Prozesse Momente von Unberechenbarkeit.
          Trotz oder wegen ihnen?

          Ich lese mich da momentan erst ein, denke aber, dass es zumindest zur Zeit nicht möglich ist, konkrete Erfahrungen von Kontingenz auf die letzten Mikrostrukturen zurückzuführen. Die Diskussion erscheint mir noch offen zu sein.

          Systemtheoretisch wird Kontingenz regelrecht produziert durch die Koppelung komplexer Systeme, die jeweils die Kommunikation nicht gradlinig durch einen vorhersehbaren Output verarbeiten, sondern auf komplexe Weise mögliche Reaktionen des anderen zu antizipieren versuchen. Ein interessanter Weg, Zukunft zu produzieren, ist dabei das Mittel paradoxer Kommunikation, etwa wenn in einem System zwei gegensätzliche Prinzipien immer wieder auf neue Weise zusammengeführt werden.

          1. Beide Systeme wissen, dass dies wechselseitig geschieht.
            Nein, von „Wissen“ würde ich nicht sprechen, das setzte ein Bewusstsein voraus.

          Ja, mein Ausgangspunkt waren Untersuchungen zu sozialen und psychischen Systemen. Tatsächlich scheint mir auch der Begriff "Bewusstsein" in seiner Bedeutung bis heute nicht letztgültig analysiert zu sein.

          Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?
          Meiner Meinung nach nicht. Alles ist trivial.

          Die Frage ist, ob das theoretisch nicht auch für menschliche Kommunikation gelten müsste.
          Bei all dem, was das Gehirn während einer Unterhaltung zu leisten hat kann es schon zu Fehlern kommen, keine Frage.

          Fehler wären nach deinem sehr prinzipiellen Ansatz aber bauartbedingte, logische Produkte der Maschinerie, die nur unvorhergesehen sind, weil die Maschine nicht bis ins letzte Detail analysiert ist.

          Viele Grüße
          Mathias Bigge

        3. Hi,

          Ja. Das menschliche Gehirn (Nervensystem) ist nichts anderes als ein relativ komplexes System, das bei vollständiger Abbildung und ausreichender Rechenzeit vorhersagbar sein müsste. Insofern wären der freie Wille, der Geist bzw. „das Ich“ eine nette Illusion.

          An letzterem mag durchaus etwas dran sein. Aber selbst eine vollständige Abbildung des menschlichen Gehirns würde bei weitem nicht ausreichen, um Vorhersagen treffen zu können. Dazu müßtest Du sämtliche Faktoren einbeziehen, die die Arbeit des Gehirns beeinflussen. Dies ist zunächst einmal der Körper als Ganzes, angefangen von der aktuellen hormonellen Situation und den im Blut befindlichen Stoffen bis hin zum Füllstand der Blase. ;-)

          Darüber hinaus müßtest Du aber auch die äußeren Faktoren berücksichtigen, die sowohl direkt das Denken beeinflussen (ein Geräusch, das ablenkt und Assoziationen hervorruft), als auch indirekt z.B. z.B. über die Ausschüttung von Botenstoffen (Licht, Streßfaktoren).
          Im Grunde läuft das auf 42 hinaus...

          freundliche Grüße
          Ingo

          1. Hi Ingo,

            ich denke, durch Dein Posting ist nochmal klar geworden, dass man einzelne menschliche Handlungen nicht korrekt aufgrund von Ursache-Wirkungsketten vorhersagen kann. Du hast auch korrekt darauf hingewiesen, dass soziales Handeln nicht unbedingt innerpsychisch erklärt werden kann, die Forschung geht sogar davon aus, dass bestimmte Verhaltensweise leichter aufgrund einer Situationsbeschreibung vorhersagbar sind als aufgrund guter Kenntnis einer Person.

            Dass die Unvorhersagbarkeit auch für Naturvorgänge gelten kann, weiß man spätestens seit den Debatten um die Chaostheorie. Zudem erscheint mir der abstrakte Verweis auf Ursache-Wirkungsketten in der Natur teilweise als oberflächlich. Die so entwickelte Naturvorstellung geht von einer allumfassenden und mechanisch gedachten Ursache-Wirkungskette aus, was m.E. eher eine psychische Vorstellung oder ein Denkmodell als die Wirklichkeit beschreibt. Tatsächlich sprengen viele moderne physikalische Analysen den alten Vorstellungsrahmen in diesem Bereich.

            Ich habe da wenig Ahnung und lese nur als faszinierter Laie immer mal wieder die eine oder andere Publikation. Da scheint es doch eine Reihe von Phänomenen zu geben, die mechanischen Vorstellungen von Ursache-Wirkung zu widersprechen scheinen.

            Viele Grüße
            Mathias Bigge

      3. Hallo,

        es gibt keine wirklich zufaelligen spruenge bei normalen computern, weshalb man streng genommen auch nicht von indeterministischen automaten sprechen duerfte. an dieser stelle koennte man nun ueber zufall diskutieren. ich will aber erst wissen, ob das ueberhaupt in die richtung geht, die der beantwortung deiner frage dienlich sein koennte.
        Das tut es. Allerdings geht meine Frage nicht so sehr in Richtung Zufall, auch wenn ich weiß, dass wirkliche Zufälligkeit nicht leicht zu implementieren ist, sondern eher in Richtung auf komplexe Programmkonstrukte, die systematisch Kontingenz, also nicht voraussagbares Verhalten produzieren, das dennoch nicht ganz zufällig ist.

        Wenn man das weiße Rauschen einer Diode als Zufallsgenerator nehmen würde, darf ich meinen Computer dann indeterministisch/nicht-trivial nennen?

        Viele Grüße
        Mathias Bigge

        Schöne Grüße
        Julian

        --
        "Real programmers can write assembly code in any language." - Larry Wall
        1. Hallo.

          Wenn man das weiße Rauschen einer Diode als Zufallsgenerator nehmen würde, darf ich meinen Computer dann indeterministisch/nicht-trivial nennen?

          Zufall ist letztlich auch deterministisch, nur auf einem höheren Niveau.
          MfG, at

          1. Hallo at!

            Wenn man das weiße Rauschen einer Diode als Zufallsgenerator nehmen würde, darf ich meinen Computer dann indeterministisch/nicht-trivial nennen?

            Zufall ist letztlich auch deterministisch, nur auf einem höheren Niveau.

            Du kannst anstreiten dass aus einer Diode weißes Rauschen rauskommt, aber weißes Rauschen ist ja laut Definition schon indeterministisch ;)

            Außerdem mag ich den Gedanken, das alles irgendwie deterministisch ist nicht. Dann ist das Finden eines Lebenssinns noch schwieriger, und ich sehe keine Motivation mehr irgendwas zu tun.

            Schöne Grüße
            Julian

            --
            "Real programmers can write assembly code in any language." - Larry Wall
            1. Hallo.

              Zufall ist letztlich auch deterministisch, nur auf einem höheren Niveau.

              [...]

              Außerdem mag ich den Gedanken, das alles irgendwie deterministisch ist nicht.

              Jaja, die Befindlichkeiten.

              Dann ist das Finden eines Lebenssinns noch schwieriger, und ich sehe keine Motivation mehr irgendwas zu tun.

              Das Niveau zu erreichen, auf dem der Zufall deterministisch wird, könnte ein Ziel sein. Die Motivation, es zu erreichen, hat man oder man hat sie nicht.
              MfG, at

  3. Hallo Mathias,

    in der Kybernetik [...]

    1. Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

    Ich denke, zur Zeit nur in SCI-FI.

    Hast du Lust zum Lesen?

    http://www.hausarbeiten.de/faecher/hausarbeit/pac/23376.html
    http://www.hausarbeiten.de/faecher/hausarbeit/soc/23544.html
    http://www.gpi-online.de/upload/PDFs/EU-Media/_klauninger_cyberspace.pdf

    Grüße
    Thomas

    --
    Surftip: kennen Sie schon Pipolino's Clowntheater?
    http://www.clowntheater-pipolino.net/
    1. Hi Thomas,

      http://www.hausarbeiten.de/faecher/hausarbeit/pac/23376.html
      http://www.hausarbeiten.de/faecher/hausarbeit/soc/23544.html
      Die kostenpflichtigen Angebote habe ich mal entlinkt, meist stimmt die Qualität der Arbeiten nicht mit dem Preis überein. Die erste Frage beschäftigt sich aber genau mit der Theorie Heinz von Foersters, die meiner Frage zu Grunde lag, der dritte Link ist interessant, da werde ich mal morgen weiterlesen. Das hebt ab auf Luhmanns Systemthorie, die versucht, allen Einwendungen von Orlando zum Trotz so etwas wie Kontingenz in sozialen Systemen zu begründen.

      http://www.gpi-online.de/upload/PDFs/EU-Media/_klauninger_cyberspace.pdf

      Was hältst Du von Orlandos sehr prinzipieller Argumentation?

      Viele Grüße
      Mathias Bigge

      1. Hallo Mathias,

        http://www.hausarbeiten.de/faecher/hausarbeit/pac/23376.html
        ... meist stimmt die Qualität der Arbeiten nicht mit dem Preis überein ...
        ... Theorie Heinz von Foersters, die meiner Frage zu Grunde lag, ...

        Leichte Probleme mit dem Fachvokabular: Es wäre schön, wenn Du den Begriff der Trivialen Maschine mal in präzisere Worte oder eine Definition fassen würdest. Diese Hausarbeit scheint sich da nur an dem Vorhandensein eines Inneren Zustands zu konzentrieren, gerade das ist aber in der Informatik eines der Kennzeichen eines Automaten.

        Oder besser gesagt: Diese hoffentlich naive Definition von Trivialer bzw. Nicht-Trivialer Maschine erinnert mich eher an den Unterschied zwischen Schaltnetzen und Schaltwerken bei den Elektrofritzen denn an den Unterschied zwischen deterministischen und nicht-deterministischen Automaten.

        Tim

        1. Hallo, Tim,

          ... Theorie Heinz von Foersters, die meiner Frage zu Grunde lag, ...

          Leichte Probleme mit dem Fachvokabular: Es wäre schön, wenn Du den Begriff der Trivialen Maschine mal in präzisere Worte oder eine Definition fassen würdest.

          -------------------
          Foerster, Heinz von: Entdecken oder Erfinden. Wie läßt sich Verstehen verstehen?, in: Einführung in den Konstruktivismus; Piper, München / Zürich, 2003 (Seiten 41-88)

          "trivialen Maschine"

          • Synthetische Determiniertheit, d.h. das Input-/Output-Verhalten der Maschine ist durch ihre Bestandteile und deren Verbindungen vollständig bestimmt
          • Analytische Determinierbarkeit, d.h. ein externer Beobachter kann durch das Input-/Output- Verhalten der Maschine vollständig auf ihre Funktionsweise schließen.
          • Geschichtslosigkeit, d.h. die Maschine kennt keinen inneren Zustand. Die zeitliche Abfolge der Input-/Output-Paare ist irrelevant.
          • Vorhersagbarkeit, d.h. bei gegebenem Input ist auch der entsprechende Output bekannt.

          "nichttriviale Maschine"

          • Synthetische Determiniertheit
          • Analytische Indeterminierbarkeit, d.h. der Beobachter kann alleine durch das Input-/Outputverhalten der Maschine im Allgemeinen nicht auf ihre  Funktionsweise schließen.
          • Geschichtlichkeit, d.h. der Output ist vom momentanen Input und von den vorangegangenen Inputs (die im Zustand der Maschine aufgehoben sind) abhängig.
          • Unvorhersagbarkeit, d.h. durch verschiedene innere Zustände der Maschine variiert bei gleichem Input der jeweilige Output.
            -----------------

          Präziese genug? ;-)

          Grüße
          Thomas

          --
          Surftip: kennen Sie schon Pipolino's Clowntheater?
          http://www.clowntheater-pipolino.net/
          1. Hallo,

            als kleine Ergänzung zur ausführlichen Darstellung von Thomas

            http://www.hyperkommunikation.ch/lexikon/triviale_maschine.htm
            http://www.hyperkommunikation.ch/lexikon/turing_maschine.htm

            Beste Grüsse
            Richard

            1. Hallo Richard,

              http://www.hyperkommunikation.ch/lexikon/triviale_maschine.htm
              http://www.hyperkommunikation.ch/lexikon/turing_maschine.htm

              Ähm, ja. Ich studiere Informatik, diese beiden Erläuterungen sagen mir also eher wenig Neues. Ich war da mehr an Herrn Foersters Theorie interessiert. Aber Danke.

              Tim

              1. Hallo Tim,

                Ähm, ja. Ich studiere Informatik, diese beiden Erläuterungen sagen mir also eher wenig Neues. Ich war da mehr an Herrn Foersters Theorie interessiert. Aber Danke.

                Du hast doch selbst auf Heinz von Foerster hingewiesen, insofern bin ich etwas überrascht. Du wirst aber nicht lange suchen müssen, um darüber viel Material zu finden.

                Zum Missverständnis, das du aufklären willst: auch eine nichttriviale Maschine im Sinne von von Foerster ist ganz eindeutig eine deterministische Maschine. Es geht nicht um determiniert oder indeterminiert, was wohl missverständlich war. Er unterscheidet nach Kriterien des Beobachtens der Black Box - und zwar durch einen _menschlichen_ Beobachter, auch wenn dies im radikalen Konstruktivismus möglicherweise nicht explizit behauptet wird.

                Sind input und output eindeutig verknüpft, kann der Beobachter die Funktion der Back Box problemlos nachvollziehen, deshalb spricht von Foertser von einer trivialen Maschine oder Kybernetik 1. Ordnung. Sobald nun die Black Box ein "Innenleben" hat, etwa frühere Zustände speichert, kann der Beobachter nicht mehr ohne weiteres auf die Funktion schliessen, weil gleiche Inputs zu verschiedenen Outputs führen und umgekehrt. Deshalb spricht er von nichttrivaler Maschine. Als Lösung schlägt er nun vor, den Beobachter in das System einzubeziehen, also vom beobachteten zum beobachtenden System zu wechseln, was dann Kybernetik 2. Ordnung heisst.

                Die Begründung dieser Abgrenzung kann ich zur Not noch nachvollziehen, mit der praktischen Umsetzung habe aber nicht nur ich Probleme.

                Beste Grüsse
                Richard

          2. Hallo Thomas,

            Foerster, Heinz von: Entdecken oder Erfinden. Wie läßt sich Verstehen verstehen?, in: Einführung in den Konstruktivismus; Piper, München / Zürich, 2003 (Seiten 41-88)

            Danke, wenn ich morgen Zeit habe, guck ich mal in der Uni-Bibliothek vorbei.

            • Analytische Determinierbarkeit, d.h. ein externer Beobachter kann durch das Input-/Output- Verhalten der Maschine vollständig auf ihre Funktionsweise schließen.

            Muß dieser Beobachter zwangsläufig ein Mensch sein?

            • Geschichtslosigkeit, d.h. die Maschine kennt keinen inneren Zustand. Die zeitliche Abfolge der Input-/Output-Paare ist irrelevant.

            Tatsächlich. Da ist die Triviale Maschine tatsächlich sehr trivial.

            • Vorhersagbarkeit, d.h. bei gegebenem Input ist auch der entsprechende Output bekannt.

            Hier habe ich ein Problem, wenn das im Gegensatz zur Unvorhersagbarkeit der Nicht-Trivialen Maschine stehen soll. Es spricht auch nichts dagegen, bei Kenntnis des Aufbaus einer Maschine mit inneren Zustand und des Startzustandes von einem gegebenen Input auf den Output schließen zu können. Es sei denn, die Vorhersagbarkeit bezieht sich tatsächlich auf eine Black Box.

            Präziese genug? ;-)

            Doch. Danke Dir. Mein Problem war einfach, daß mir die Begriffe durch ihr Umfeld ("Kybernetik" bzw. der sonstige theoretische Hintergrund) mit einer Definition aufgeladen zu sein schienen, daß man ohne Kenntnis dieser Definitionen da ziemlich in Missverständnissen landen kann. Das Problem besteht natürlich überall, ich frag da lieber mal nach. Nachdem das Web mir schon nicht sonderlich viel bzw. exaktes zu Herr Foerster lieferte.

            Tim

            1. Hi Tim,

              • Analytische Determinierbarkeit, d.h. ein externer Beobachter kann durch das Input-/Output- Verhalten der Maschine vollständig auf ihre Funktionsweise schließen.
                Muß dieser Beobachter zwangsläufig ein Mensch sein?

              Es könnte theoretisch auch ein anderes System sein. Der Begriff "Mensch" ist nebenbei in der Systemtheorie extrem in Frage gestellt, ich weiß nicht, mit welchen Implikationen Du ihn hier verwendest.

              • Geschichtslosigkeit, d.h. die Maschine kennt keinen inneren Zustand. Die zeitliche Abfolge der Input-/Output-Paare ist irrelevant.
                Tatsächlich. Da ist die Triviale Maschine tatsächlich sehr trivial.

              Ich weiß nicht, ob Du die Definition richtig würdigst. Es ist gerade die Differenz zu nichttrivialen Systemen, dass die eigene Geschichte, die etwa in Form einer Selbstreflexion vorliegt, Reaktionen beeinflusst.

              • Vorhersagbarkeit, d.h. bei gegebenem Input ist auch der entsprechende Output bekannt.
                Hier habe ich ein Problem, wenn das im Gegensatz zur Unvorhersagbarkeit der Nicht-Trivialen Maschine stehen soll. Es spricht auch nichts dagegen, bei Kenntnis des Aufbaus einer Maschine mit inneren Zustand und des Startzustandes von einem gegebenen Input auf den Output schließen zu können. Es sei denn, die Vorhersagbarkeit bezieht sich tatsächlich auf eine Black Box.

              Auch nichttriviale Maschinen können trivial reagieren, etwa wenn ein Schüler die korrekte Antwort auf eine Additionsaufgabe gibt, oder ein Student beim multiple-choice-Test das Kreuz an der richtigen Stelle macht. Für die Sozialwissenschaft ist an dieser Stelle die Frage interessant, welche Folgen es für Personen hat, die in bestimmten Zusammenhängen dauernd triviale Outputs leisten zu müssen.

              Doch. Danke Dir. Mein Problem war einfach, daß mir die Begriffe durch ihr Umfeld ("Kybernetik" bzw. der sonstige theoretische Hintergrund) mit einer Definition aufgeladen zu sein schienen, daß man ohne Kenntnis dieser Definitionen da ziemlich in Missverständnissen landen kann. Das Problem besteht natürlich überall, ich frag da lieber mal nach. Nachdem das Web mir schon nicht sonderlich viel bzw. exaktes zu Herr Foerster lieferte.

              Ja, deshalb auch meine Frage hier. Ich finde die Untersuchungen zu dem Thema ziemlich interessant und werde auch weiteres lesen, dann kommen wir sicher noch weiter.

              Viele Grüße
              Mathias Bigge

      2. Hallo Mathias,

        http://www.hausarbeiten.de/faecher/hausarbeit/pac/23376.html
        http://www.hausarbeiten.de/faecher/hausarbeit/soc/23544.html
        Die kostenpflichtigen Angebote habe ich mal entlinkt,

        Man kann die Arbeiten lesen, ohne dafür was bezahlen zu müssen (nur wer sie gedruckt haben möchte, wird zur Kassa gebeten)

        Was hältst Du von Orlandos sehr prinzipieller Argumentation?

        Theoretisch hat er recht, was die Abbildbarkeit des menschlichen Gehirns angeht. Theoretisch wäre es m.M.n. möchlich, mit entsprechenden Hard- und Software das Gehirn abzubilden.
        Ich habe mich gerade gestern mit FJH unterhalten und wir sprachen unter anderem über Zeiliger und seine Versuche die Regeln der Quantenphysik auf immer größere Objekte anzuwenden (siehe dazu auch http://www.helmut-hille-philosophie.de/T-zeilinger.html).

        Iteressanter Weise steht Zeiliger im Gesansatz zu Förster:
        (Zitate: siehe: http://www.heise.de/tp/r4/artikel/7/7550/1.html)
        ------------
        "Ich bin nicht ein Anhänger des Konstruktivismus, sondern ein Anhänger der Kopenhagener Interpretation. Danach ist der quantenmechanische Zustand die Information, die wir über die Welt haben.

        Q: Was ist Ihrer Meinung nach die Bedeutung der Quantenphysik für unser Weltbild und unser Bewusstsein?

        Zeilinger: Es stellt sich letztlich heraus, dass Information ein wesentlicher Grundbaustein der Welt ist. Wir müssen uns wohl von dem naiven Realismus, nach dem die Welt an sich existiert, ohne unser Zutun und unabhängig von unserer Beobachtung, irgendwann verabschieden.
        -------------

        Was ich aber im Zusammenhang mit dem "freien Wille" interesant finde ist, eben die Vorhersehrbarkeit des/der Menschen.
        Ich finde sehr gut, dass Tim gerade Asimov erwähnt, denn der von ihm erfunderen Begriff der Psychohistori[e|k] finde ich recht interessant bzw. eigentlich das, was in diesem Bereich wissenschaflich geschieht.
        (irgendwie hatten wir das schon mal, ... ah ja da gab es eine Diskussion zu Kondradieff)
        Da ging es auch um Fragen wie "zivilisatorische Evolition" und darum wie Weit sich geschellschaftliche Entwicklungen vorhersagen lassen. Da stellt sich eben die Frage, ob der freie Wille des einzelnen, in Anbetracht der Tatsache, dass die Handlungen und Entwicklungen der Masse (der Meschen) vorhersehbar und berechenbar sind, eine Rolle spielt.

        Grüße
        Thomas

        --
        Surftip: kennen Sie schon Pipolino's Clowntheater?
        http://www.clowntheater-pipolino.net/
  4. Hallo Mathias,

    ich vermute, deine Fragen seien mit einer ganz bestimmten Absicht verknüpft. Was meinst du mit moderner Kommunikationstheorie genau und an welchen Bereich der Kybernetik denkst du speziell? Im Moment ist es ja modern von gehirngerechter Kommunikation zu reden, schön gesteuert von neuronalen Prozessen. Gerhard Roth wird nach allen Regeln der Kunst ausgeschlachtet ;-)

    in der Kybernetik und der modernen Kommunikationstheorie gibt es den Begriff der trivialen Maschine, die auf einen bestimmten Input eine vorhersehbaren Output liefert.

    Ja, ist aber keine sinnvolle Basis über menschliche Kommunikation nachzudenken.

    Der Mensch als nichttriviale Maschine kann in bestimmten Situationen als triviale Maschine funktionieren.

    Auch der trivialste Mensch ist ein Mensch und selbst die intelligenteste Maschine wird nicht zum Menschen. Unreflektiertes menschliches Verhalten mag mechanisch erscheinen, ist aber immer noch menschliches Verhalten. Eine Maschine mag antworten können, im Gegensatz zum Menschen antwortet sie aber nicht mir.

    Dies ist ein besonderer Zustand, da normalerweise aufgrund einer selbstreferentiellen Schleife in der Kommunikation nichttrivial reagiert wird.

    Wäre ein Punkt für eine ausführliche Diskussion. Hier stellt sich die Frage, ob das auch für eine nicht triviale Maschine zutrifft.

    Mich würden nun zwei DInge interessieren:

    1. Wie werden diese Begriffe in der Informatik verwandt?
    2. Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

    Ganz sicher im Bereich der Turing-Maschinen. Mit dem Turing-Test wird festgestellt, ob ein Computer trivial oder nicht trivial reagiert. Wenn ein Cumputer-Benutzer nicht mehr unterscheiden kann, ob er mit einem anderen Cumputer-Benutzer oder mit einem mit künstlicher Intelligenz ausgestatteten Computer interagiert, dann handelt es sich um einen intelligenten Computer. Auf dieser Idee von Alan Mathison Turing bauen eigentlich alle Arbeiten über künstliche Intelligenz auf.

    Dazu etwas zu lesen:
    http://www.cx.unibe.ch/psy/ukp/langpapers/pap1980-89/1989_men_comp_&fuhrer.htm#Inhalt
    http://transfer.ik.fh-hannover.de/ik/person/becher/edvhist/index.htm
    http://künstliche-intelligenz.de/
    http://www.dfki.de/web/

    und ein einfaches Beispiel zum ausprobieren/spielen:
    http://dienstleistungen.freepage.de/documedia/eliza.html

    Beste Grüsse
    Richard

    1. Hallo Richard,

      leichte Begriffsverwirrung hier, oder?

      Ganz sicher im Bereich der Turing-Maschinen.

      Die Turing-Maschine ist nur ein Konstrukt aus der Theoretischen Informatik. Es wird niemand eine Turing-Maschine geben, da es schon an so trivialen Dingen wie einem "unendlichen Band" fehlt. Und nein, die Turing-Maschine hat eigentlich nix mit dem Turing-Test zu tun.

      Mit dem Turing-Test wird festgestellt, ob ein Computer trivial oder nicht trivial reagiert.

      Wenn es immer noch um "Trivial" bzw. "Nicht-Trivial" geht, das sich daran orientiert, ob eine Maschine einen innen Zustand besitzt, dann ist jeder Computer Nicht-Trivial. Bitte, sowohl bei diesem Foerster als auch in der Informatik gibt es da wohl exakt definierte Begriffe, die sollten wir benutzen.

      Und ich würde auch nicht sagen, daß der Turing-Test so etwas feststellt, denn...

      Wenn ein Cumputer-Benutzer nicht mehr unterscheiden kann, ob er mit einem anderen Cumputer-Benutzer oder mit einem mit künstlicher Intelligenz ausgestatteten Computer interagiert, dann handelt es sich um einen intelligenten Computer.

      ... es geht hier meiner Meinung nach um den Benutzer, nicht um den Computer.

      Auf dieser Idee von Alan Mathison Turing bauen eigentlich alle Arbeiten über künstliche Intelligenz auf.

      Nein. Eigentlich nicht. Man kann auch durchaus KI betreiben, ohne zu glauben oder zu hoffen, daß Maschinen jemals den Turing-Test bestehen können. Das Problem ist, daß sich hier unter dem Begriff "Künstliche Intelligenz" eine dem Menschen gleichwertige Intelligenz versteht und - beeinflusst von zuviel Sci-Fi - anscheinend die Vorstellung vom typischen wirren Wissenschaftler hat, der sich mit einem Schraubenschlüssel über Robotergehirne á la Asimov beugt und finster lacht.

      Seit Jahren aktuell in der KI ist eher die Simulation intelligenten Verhaltens, mehr nicht. Es wäre schön, wenn diese Vorstellung von KI auch endlich mal in das Halbwissen von Nicht-Informatikern einschleicht. C3PO geht einem dann doch ziemlich auf die Nerven.

      Tim

      1. Hallo Tim,

        leichte Begriffsverwirrung hier, oder?

        Offensichtlich, finde ich aber nicht so tragisch. Die Frage von Mathias lässt sich in unterschiedlicher Weise interpretieren. Diese Unterscheidung von trivialen und nicht-trivialen Maschinen stammt vermutlich aus der Soziologie, etwa dem Umfeld Luhmanns mit einem leichten Hauch Symbolischen Interaktionismus. Für die Informatik mithin wohl nicht so richtig geeignet ;-)

        Die Turing-Maschine ist nur ein Konstrukt aus der Theoretischen Informatik.

        Auch, aber nicht nur!

        Und nein, die Turing-Maschine hat eigentlich nix mit dem Turing-Test zu tun.

        Das sahen Turing/von Neumann allerdings noch anders. Aber der Begriff der Turing-Maschine hat sich natürlich gewandelt, gerade in der Informatik, die allerdings diesen Begriff nicht für sich allein gepachtet hat.

        Wenn es immer noch um "Trivial" bzw. "Nicht-Trivial" geht, das sich daran orientiert, ob eine Maschine einen innen Zustand besitzt, dann ist jeder Computer Nicht-Trivial.

        Mathias ging von Kybernetik und Kommunikationstheorie aus und fragte, wie es bei der Informatik damit aussieht. Einfache Antwort: die Informatiker können damit nichts anfangen. Wirklich nicht?

        Bitte, sowohl bei diesem Foerster als auch in der Informatik gibt es da wohl exakt definierte Begriffe, die sollten wir benutzen.

        Foerster ist aber nicht der einzige, der Begriffe definiert. Jede Interdisziplinäre Diskussion ist doch darauf angewiesen, dass eine Auseinandersetzung mit den Begriffen des anderen Sachgebiets stattfindet.

        Und ich würde auch nicht sagen, daß der Turing-Test so etwas feststellt, denn...
        ... es geht hier meiner Meinung nach um den Benutzer, nicht um den Computer.

        Im Turing-Test geht es klar darum festzustellen, ob eine Maschine Intelligenz besitzt aufgrund des Urteils des Benutzers. Möglich, dass mit abnehmender Intelligenz der Benutzer die Intelligenz der Maschinen steigt ;-)

        Man kann auch durchaus KI betreiben, ohne zu glauben oder zu hoffen, daß Maschinen jemals den Turing-Test bestehen können.

        Vielleicht, vielleicht auch nicht. Es wäre dann sinnvoller den Begriff "Künstliche Intelligenz" zu ersetzen.

        Das Problem ist, daß sich hier unter dem Begriff "Künstliche Intelligenz" eine dem Menschen gleichwertige Intelligenz versteht

        Das ist in der Tat eine der Kernfragen der Intelligenz schlechthin. Meint "Intelligenz" wirklich und auschliesslich "Menschliche Intelligenz"? Oder gibt es eine Schnittmenge "Intelligenz" aus menschlicher, natürlicher und künstlicher Intelligenz?

        und - beeinflusst von zuviel Sci-Fi - anscheinend die Vorstellung vom typischen wirren Wissenschaftler hat, der sich mit einem Schraubenschlüssel über Robotergehirne á la Asimov beugt und finster lacht.

        Ist für mich kein Thema.

        Seit Jahren aktuell in der KI ist eher die Simulation intelligenten Verhaltens, mehr nicht.

        Das ist eher die resignierende Folge auf die Unfähigkeit, eine vernünftige Antwort auf die Frage zu geben, was Intelligenz ist. Wenn in einem Intelligenz-Test Figurenreihen ergänzt werden müssen, wird den Personen, die das richtig lösen, Intelligenz bescheinigt. Wenn ein Rechner dies viel schneller und viel zuverlässiger tut, wird ihm dennoch jede Intelligenz abgesprochen.

        Es wäre schön, wenn diese Vorstellung von KI auch endlich mal in das Halbwissen von Nicht-Informatikern einschleicht.

        Das Thema "Künstliche Intelligenz" ist viel zu wichtig, um es den Informatikern allein zu überlassen ;-)

        Beste Grüsse
        Richard

        1. Hallo Richard,

          Die Turing-Maschine ist nur ein Konstrukt aus der Theoretischen Informatik.
          Auch, aber nicht nur!

          Was denn sonst noch? Beziehungsweise: Wo wird der Begriff denn sonst noch gebraucht, womöglich in anderer Interpretation?

          Mathias ging von Kybernetik und Kommunikationstheorie aus und fragte, wie es bei der Informatik damit aussieht. Einfache Antwort: die Informatiker können damit nichts anfangen. Wirklich nicht?

          Doch, eigentlich schon. Wenn ich die "Kybernetik-für-Laien"-Darstellungen im Web lesen, dann haben sich deren Themen doch größtenteils auch in der Informatik aufgelöst. Das Problem ist nur: Wie soll man mit etwas etwas anfangen, dessen Fachbegriffe einem mangels Hintergrundwissen (siehe oben) als missverständlich erscheinen können?

          Jede Interdisziplinäre Diskussion ist doch darauf angewiesen, dass eine Auseinandersetzung mit den Begriffen des anderen Sachgebiets stattfindet.

          Spekulation halte ich da allerdings für gefährlich.

          Im Turing-Test geht es klar darum festzustellen, ob eine Maschine Intelligenz besitzt aufgrund des Urteils des Benutzers.

          Ja, das meinte ich, mit Benutzerbezogen. Der Test verzichtet auf eine Definition von Intelligenz.

          Möglich, dass mit abnehmender Intelligenz der Benutzer die Intelligenz der Maschinen steigt ;-)

          „Any sufficiently advanced technology is indistinguishable from magic.“ (Arthur C. Clarke)

          Vielleicht, vielleicht auch nicht. Es wäre dann sinnvoller den Begriff "Künstliche Intelligenz" zu ersetzen.

          Eines der Probleme sehe ich mit der Brachial-Übersetzung des Begriffes „Artificial Intelligence“ ins Deutsche. Mein Wörterbuch hier definiert „intelligence“ sehr schön als „the ability to acquire and apply knowledge and skills“, im Deutschen hängt dem Begriff für meine Begriffe zu automatisch die Konnotation „menschlich“ an.

          Nebenbei: Einige der Fachgebiete der schwachen KI (Unscharfe bzw. mehrwertige Logik, Neuronale Netze) haben für sich den Begriff „Computational Intelligence“ geprägt. Halte ich für sinnvoller.

          Das ist eher die resignierende Folge auf die Unfähigkeit, eine vernünftige Antwort auf die Frage zu geben, was Intelligenz ist. Wenn in einem Intelligenz-Test Figurenreihen ergänzt werden müssen, wird den Personen, die das richtig lösen, Intelligenz bescheinigt. Wenn ein Rechner dies viel schneller und viel zuverlässiger tut, wird ihm dennoch jede Intelligenz abgesprochen.

          Klar, wenn man eine Problemlösungstrategie auf einen berechnenden Algorithmus reduziert, fehlt einmal instinktiv der Funke Geist und Intuition. Im Algorithmus, nicht im Finden desselben, natürlich.

          Das Thema "Künstliche Intelligenz" ist viel zu wichtig, um es den Informatikern allein zu überlassen ;-)

          Aber auch, um sie nicht zu ignorieren. ;)

          Tim

          1. Hi Tim,

            Doch, eigentlich schon. Wenn ich die "Kybernetik-für-Laien"-Darstellungen im Web lesen, dann haben sich deren Themen doch größtenteils auch in der Informatik aufgelöst. Das Problem ist nur: Wie soll man mit etwas etwas anfangen, dessen Fachbegriffe einem mangels Hintergrundwissen (siehe oben) als missverständlich erscheinen können?

            Ich habe solche Verständigungsprobleme erwartet. Wenn wir sie überwinden, hätten wir schon etwas geleistet.

            Jede Interdisziplinäre Diskussion ist doch darauf angewiesen, dass eine Auseinandersetzung mit den Begriffen des anderen Sachgebiets stattfindet.
            Spekulation halte ich da allerdings für gefährlich.

            Versuch es ruhig einmal. Wenn jeder die Begriffe seines Fachgebiets sauber erläutert, kann trotz Verständigungsschwierigkeiten eine interessante Diskussion entstehen.

            Das Thema "Künstliche Intelligenz" ist viel zu wichtig, um es den Informatikern allein zu überlassen ;-)
            Aber auch, um sie nicht zu ignorieren. ;)

            Genau deshalb diskutieren wir hier....

            Viele Grüße
            Mathias Bigge

      2. Hallo Tim,

        Stress? Ist das Wetter schlecht? Hat der jährliche Langlauf der Läuse über den Leber begommen? Oder warum so entnervte Postings?

        Es wäre schön, wenn diese Vorstellung von KI auch endlich mal in das Halbwissen von Nicht-Informatikern einschleicht. C3PO geht einem dann doch ziemlich auf die Nerven.

        "Es gibt mehr Ding im Himmel und auf Erden als eure Schulweisheit sich träumt, Horatio" ;-)
        Dass Informatikern C3PO auf die Nerver geht, haben sie sich selbst zuzuschreiben. Sie könnten sich ja auch mal ein Bild über die Frage der künstlichen Intelligenz verschaffen. ;-)
        Denn diese Frage wurde schon gestellt, lange bevor der erste Informatiker seinen ersten Input erhielt und kuze Zeit später darauf seinen ersten Output ganz trivial in seinen Windeln lieferte.

        Ich will das jetzt auch nicht ausufernd beschreiben, aber angefangen von den Puppen und Marionetten über Golem(s), Androiden, Homunkuli bis dann später zu den Automaten hat der Mensch schon lange versucht künstliche Intelligenz zu erschaffen. Der Gedanke, einen Menschen künstlich (also ohne den üblichen Weg der Zeugung) herstellen zu können, ist wohl eine der weitverbreitetsten menschlichen Wunschtäumen.
        Die Literatur ist voll von solchen Geschichten. In der Antike die Androiden z.B. Prometheus formte (siehe Ovids Methmorphosen) aus Lehm und Wasser Männer und Frauen. (Lassen wir hier jetzt die Frage nach Gott und Adam beseite, wenn du so willst ist Gott in dieser Berechnung das Unbekannte.)
        Hephaistos soll für den König von Kreta, Talos den ersten Riesen geschaffen haben. Dann die Golem-Saga.
        Von Albertus Magnus erzählt die Geschichte, dass er sich einen sprechenden eisernen Kopf als Torhüter geschaffen habe. All die Sagen um den Mandragora- bzw. Alraunwurzel, der sich zu einem Mensch beleben ließe.
        Goethes Faust, der als Art- und Zeitgenosse Paracelsus den Homunkulus erschuf. Der Pygmalion-Stoff. Schon um 1740 herum schreibt Julien Offray de La Mettrie darüber, dass es eines Tages möglich sein wird rein mechanisch ein  'Androide' zu bauen, der stehen, sprechen etc. kann. Und und und, die Liste ist sehr lang.

        Aber in all diesen Stoffen und Geschichten geht es um die Frage, wie man künstlich Intelligenz erschaffen kann. Da ist C3PO nur ein winziges Glied in einer sehr langen Kette. ;-)

        Grüße
        Thomas

        --
        Surftip: kennen Sie schon Pipolino's Clowntheater?
        http://www.clowntheater-pipolino.net/
        1. Hallo Thomas,

          Stress? Ist das Wetter schlecht? Hat der jährliche Langlauf der Läuse über den Leber begommen? Oder warum so entnervte Postings?

          Wirkte das so entnervt? Ich wollte eigentlich nur was klarstellen, was mir wichtig war.

          "Es gibt mehr Ding im Himmel und auf Erden als eure Schulweisheit sich träumt, Horatio" ;-) Dass Informatikern C3PO auf die Nerver geht, haben sie sich selbst zuzuschreiben. Sie könnten sich ja auch mal ein Bild über die Frage der künstlichen Intelligenz verschaffen. ;-) Denn diese Frage wurde schon gestellt, lange bevor der erste Informatiker seinen ersten Input erhielt und kuze Zeit später darauf seinen ersten Output ganz trivial in seinen Windeln lieferte.

          Finde ich von Deiner Warte aus ziemlich arrogant, halten zu Ehren. ;)

          (Wirke ich so wie ein Fachidiot auf Dich, den man von oben herab belehren muß?)

          Ich will das jetzt auch nicht ausufernd beschreiben, aber angefangen von den Puppen und Marionetten über Golem(s), Androiden, Homunkuli bis dann später zu den Automaten hat der Mensch schon lange versucht künstliche Intelligenz zu erschaffen. Der Gedanke, einen Menschen künstlich (also ohne den üblichen Weg der Zeugung) herstellen zu können, ist wohl eine der weitverbreitetsten menschlichen Wunschtäumen.

          Du trägst Eulen nach Athen.

          Androiden, Prometheus, Hephaistos

          und

          Dann die Golem-Saga.

          Ich würde hier trennen. War nicht gerade einer der Witze an der Golem-Sage, daß dieser eben kein intelligentes Verhalten zeigte, sondern nur stur den aufgeschriebenen Anweisungen in seinem Kopf folgte? Zusätzlich zu Gottes Namen natürlich, den kann bei der Schaffung künstlichen Lebens wohl nicht außen vor lassen. ;)

          Von Albertus Magnus erzählt die Geschichte, dass er sich einen sprechenden eisernen Kopf als Torhüter geschaffen habe.

          Gefährlich, gefährlich. Andere kamen wegen ihres angebeteten bärtigen Hauptes, des Baphometen auf den Scheiterhaufen.

          Schon um 1740 herum schreibt Julien Offray de La Mettrie darüber, dass es eines Tages möglich sein wird rein mechanisch ein  'Androide' zu bauen, der stehen, sprechen etc. kann.

          Ja, den Zeitraum des 18. Jahrhundert halte ich für das Thema für einschneidend. Vorher reduzierte sich die Schaffung künstlichen Lebens bzw. künstlicher Intelligenz immer auf Methoden alchemistischer bzw. magischer Natur. Angefangen mit den Naturphilosophen und der Royal Society bzw. verwandter Institutionen kam dann dann die Diskussion auf nicht-alchemistische Methoden. Eben auch in der Frage von Berechenbarkeit und künstlicher Intelligenz. Angefangen mit dem Auftauchen von tatsächlichen Rechenmaschinen wie der Pascaline, über die Debatte des Schachautomaten bis hin zu Lady Ada und ihrer Meinung, daß Rechensmaschinen durchaus ein kreatives Verhalten zeigen könnten.

          Aber in all diesen Stoffen und Geschichten geht es um die Frage, wie man künstlich Intelligenz erschaffen kann.

          Wie gesagt: Ich trenne da schärfer zwischen „alchemistischer Intelligenz“ und der Debatte um Intelligenz durch rechnende Automaten.

          Da ist C3PO nur ein winziges Glied in einer sehr langen Kette. ;-)

          Aber ein tagesaktuelles Beispiel. Weswegen ich auch los muß. Wünsch mir Glück, daß ich so spontan noch einen halbwegs guten Sitzplatz kriege. ;)

          Tim

          1. Hallo Tim,

            Wirkte das so entnervt? Ich wollte eigentlich nur was klarstellen, was mir wichtig war.

            Schon.

            Finde ich von Deiner Warte aus ziemlich arrogant, halten zu Ehren. ;)
            (Wirke ich so wie ein Fachidiot auf Dich, den man von oben herab belehren muß?)

            Und wie war das mit: "Es wäre schön, wenn diese Vorstellung von KI auch endlich mal in das Halbwissen von Nicht-Informatikern einschleicht" ?

            Dann die Golem-Saga.

            Ich würde hier trennen. War nicht gerade einer der Witze an der Golem-Sage, daß dieser eben kein intelligentes Verhalten zeigte, sondern nur stur den aufgeschriebenen Anweisungen in seinem Kopf folgte?

            Man kann sich aber auch die Frage stellen ob das "durchdrehen" des Golems nun  dem Verhalten nach das einer trivialen Maschine (vorhersehbar) oder einer nichttrivialen Maschine (unvorhersehbar) war.

            Von Albertus Magnus erzählt die Geschichte, dass er sich einen sprechenden eisernen Kopf als Torhüter geschaffen habe.

            Gefährlich, gefährlich. Andere kamen wegen ihres angebeteten bärtigen Hauptes, des Baphometen auf den Scheiterhaufen.

            Deshalb war wohl Thomas von Aquin damit beschäftig den Kopf zu zerstören.

            Wie gesagt: Ich trenne da schärfer zwischen „alchemistischer Intelligenz“ und der Debatte um Intelligenz durch rechnende Automaten.

            Ich finde, dass diese Trennung mittlerweile wieder aufgehoben wird, denn man versucht mittlerweile nicht nur einfach gute Rechenmaschinen herszustellen. Lernende Systeme, neuronale Netze usw, gehen allesamt in die Richutung Intelligenz nachzubauen.

            Da ist C3PO nur ein winziges Glied in einer sehr langen Kette. ;-)

            Aber ein tagesaktuelles Beispiel. Weswegen ich auch los muß. Wünsch mir Glück, daß ich so spontan noch einen halbwegs guten Sitzplatz kriege. ;)

            Die Macht möge mit dir sein! ;-)

            Grüße
            Thomas

            --
            Surftip: kennen Sie schon Pipolino's Clowntheater?
            http://www.clowntheater-pipolino.net/
            1. Hallo Thomas,

              Man kann sich aber auch die Frage stellen ob das "durchdrehen" des Golems nun  dem Verhalten nach das einer trivialen Maschine (vorhersehbar) oder einer nichttrivialen Maschine (unvorhersehbar) war.

              weil es gerade so schön hier hin passt: vorhersagbar und determiniert dürfen aber nicht als identisch gesehen werden. Determiniert ist auch die nichttriviale Maschine im Sinne von von Foerster, nur der Beobachter kann ihr Verhalten nicht vorhersehen.
              Da Mensch dumm und Maschine klug ;-)

              Beste Grüsse
              Richard

    2. Hi Richard,

      in der Kybernetik und der modernen Kommunikationstheorie gibt es den Begriff der trivialen Maschine, die auf einen bestimmten Input eine vorhersehbaren Output liefert.
      Ja, ist aber keine sinnvolle Basis über menschliche Kommunikation nachzudenken.

      Der konkrete Bezugspunkt ist eine von verschiedenen Autoren vertretene These, dass Schüler und Prüfungskandidaten unter Druck gesetzt werden, als triviale Maschinen zu funktionieren, etwa beim Ausfüllen von multiple choice tests oder bestimmten Fragestellungen im Unterricht. Anzeichen dafür wären etwa:

      1. Die Antworten sind dem Fragendem bekannt.
      2. Für die Antwort spielen die Persönlichkeit des Antwortenden oder der situative Kontext keine Rolle.

      Als Beispiel einige Zitate von Luhmann:

      „In den Ohren des Pädagogen mag es schrecklich klingen, wenn man ihr Geschäft als Trivialisierung des Menschen beschreibt.“
      „Ein guter Indikator für diese Tendenz zur Trivialisierung ist die im Unterricht und dann in Prüfungen verwendete Fragetechnik. Der Lehrer bzw. Prüfer stellt eine Frage, obwohl er die Antwort schon weiß. Das ist im sozialen Alltag schon unüblich und, wenn es herauskommt, peinlich. In der Schule ist es ein Standardverfahren zur Kontrolle der Trivialisierung.“
      „Denn selbstverständlich bleiben Menschen trotz Schulbesuch nichttriviale Maschinen. Was geschieht aber, wenn nichttriviale Systeme sich in Situationen finden, in denen sie der Trivialisierung ausgesetzt sind? Sie stellen sich durch Selbstsozialisation darauf ein. ... Sie bauen eine Reflexionsschleife ein, die ihnen Bedingungen verdeutlicht, unter denen es empfehlenswert ist, sich wie ein triviales System zu verhalten.“

      Der Mensch als nichttriviale Maschine kann in bestimmten Situationen als triviale Maschine funktionieren.
      Auch der trivialste Mensch ist ein Mensch und selbst die intelligenteste Maschine wird nicht zum Menschen. Unreflektiertes menschliches Verhalten mag mechanisch erscheinen, ist aber immer noch menschliches Verhalten. Eine Maschine mag antworten können, im Gegensatz zum Menschen antwortet sie aber nicht mir.

      Du hast das Argument an dieser Stelle falsch verstanden und "trivial" mit "primitiv" übersetzt, was nicht gemeint ist. Triviale Reaktionen werden gefordert, wenn kontext- und personenunabhängig eine bestimmte, feste Reaktion auf einen bestimmten Input gefordert wird. Diese Reaktion kann durchaus im Alltagssinne nichttrivial und intelligent sein, sie ist im Sinne der Kybernetik trivial, weil vorhersagbar aufgrund eines Schemas.

      Mich würden nun zwei DInge interessieren:

      1. Wie werden diese Begriffe in der Informatik verwandt?
      2. Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?
        Ganz sicher im Bereich der Turing-Maschinen. Mit dem Turing-Test wird festgestellt, ob ein Computer trivial oder nicht trivial reagiert. Wenn ein Cumputer-Benutzer nicht mehr unterscheiden kann, ob er mit einem anderen Cumputer-Benutzer oder mit einem mit künstlicher Intelligenz ausgestatteten Computer interagiert, dann handelt es sich um einen intelligenten Computer. Auf dieser Idee von Alan Mathison Turing bauen eigentlich alle Arbeiten über künstliche Intelligenz auf.

      Danke erstmal für die Links und Hinweise. Ich wühle mich da einmal durch.

      und ein einfaches Beispiel zum ausprobieren/spielen:

      http://dienstleistungen.freepage.de/documedia/eliza.html

      Viele Grüße
      Mathias Bigge

      1. Hallo Mathias,

        Der konkrete Bezugspunkt ist eine von verschiedenen Autoren vertretene These, dass Schüler und Prüfungskandidaten unter Druck gesetzt werden, als triviale Maschinen zu funktionieren, etwa beim Ausfüllen von multiple choice tests oder bestimmten Fragestellungen im Unterricht.

        Vielen Dank für diese Erläuterung, meine Vermutung ging in eine leicht andere Richtung. Das Thema ist so umfassend und für mich interessant, dass ich es gern in anderem Rahmen mit dir diskutieren möchte. Ich finde, das Problem entsteht viel früher, nicht erst bei den Fragen. Schon wenn Lerninhalte geplant und festgelegt werden, müsste auch die Art der Erfolgsmessung bestimmt werden. Ausserdem schafft die Terminologie einige Verwirrung. Würde nämlich die readikal kunstruktivistische Denkweise konsequent angewandt, könnte jeder den Sinn der Fragen selbst "konstruieren" und auch entsprechend beantworten. Hinzu kommt, dass viele Antworten nach dem Blackbox-Modell tatsächlich nach der Art der trivialen Maschine korrekt sind. Antworten auf Fragen: "Wieviel sind 3% von 120 Euro?", "Wie heisst der Bundespräsident?" haben nun mal eine eindeutige Zuordnung von Input und Output. Ganz generell bezweifle ich allerdings, ob ein Mensch überhaupt nach dem Muster der trivialen Maschine "funktionieren" kann, insofern traue ich den Pädagogen auch gar nicht zu, aus Schülern triviale Maschinen machen zu können. Und wenn, ist doch besser, die funktionieren wie "triviale Maschinen" als  gar nicht ;-)

        Anzeichen dafür wären etwa:

        1. Die Antworten sind dem Fragendem bekannt.

        Ich habe irgendwie Mühe mit der Vorstellung, dass der Lehrer selbst die richtigen Antworten nicht kennt ;-)

        1. Für die Antwort spielen die Persönlichkeit des Antwortenden oder der situative Kontext keine Rolle.

        Die sollten aber vorher definiert und nicht der Willkür des Lehrers überlassen bleiben.

        Als Beispiel einige Zitate von Luhmann:
        „Ein guter Indikator für diese Tendenz zur Trivialisierung ist die im Unterricht und dann in Prüfungen verwendete Fragetechnik. Der Lehrer bzw. Prüfer stellt eine Frage, obwohl er die Antwort schon weiß. Das ist im sozialen Alltag schon unüblich und, wenn es herauskommt, peinlich. In der Schule ist es ein Standardverfahren zur Kontrolle der Trivialisierung.“

        Vorschlag: von _Aufgaben_, statt von _Fragen_ sprechen und Luhmanns Einwand ist entkräftet. Luhmann argumentiert weltfremd und praxisfern, die Situation der Schule ist doch nicht generell mit dem sozialen Alltag gleichzusetzen. Er ignoriert zudem die lange Tradition der Pädagogik, die auf Platon und der Sokratischen Methode basiert. Was aber die Gestaltung des Unterrichts angeht, stimme ich Luhmann mindestens teilweise zu.

        „Denn selbstverständlich bleiben Menschen trotz Schulbesuch nichttriviale Maschinen. Was geschieht aber, wenn nichttriviale Systeme sich in Situationen finden, in denen sie der Trivialisierung ausgesetzt sind? Sie stellen sich durch Selbstsozialisation darauf ein. ... Sie bauen eine Reflexionsschleife ein, die ihnen Bedingungen verdeutlicht, unter denen es empfehlenswert ist, sich wie ein triviales System zu verhalten.“

        Hier sollte zunächst Ursache und Wirkung geklärt werden. Wenn im Berufs- und sonstigen Leben von Menschen verlangt wird, wie triviale Maschinen zu funktionieren, wird dies ja nicht durch die Schule verursacht. Im Gegenteil könnte gefordert werden, die Schule solle darauf vorbereiten. Ich bin skeptisch, ob sich die gesellschaftliche Wirklichkeit einfach durch ein anderes Vorgehen in der Schule ändern lässt. Meines Erachtens ist diese Analogie mit trivialen und nichttrivialen Maschinen nicht wirklich hilfreich. In der gesellschaftlichen Wirklichkeit würde es auch nicht um entweder oder, sondern um sowohl als auch gehen. Es gibt ganz einfach zuviele praktische Tätigkeiten, die ausschliesslich nach dem Muster der trivialen Maschine ablaufen.

        Du hast das Argument an dieser Stelle falsch verstanden und "trivial" mit "primitiv" übersetzt, was nicht gemeint ist.

        Viel schlimmer ...  ;-)  ... ich weigere mich seit über dreissig Jahren beharrlich, das richtig zu verstehen.

        Triviale Reaktionen werden gefordert, wenn kontext- und personenunabhängig eine bestimmte, feste Reaktion auf einen bestimmten Input gefordert wird. Diese Reaktion kann durchaus im Alltagssinne nichttrivial und intelligent sein, sie ist im Sinne der Kybernetik trivial, weil vorhersagbar aufgrund eines Schemas.

        Genau deshalb will ich es ja nicht verstehen. Worin liegt den der Nutzen der Aussage, nach dem gesunden Menschenverstand sei etwas nicht trivial, nach Auffassung der Kybernetik hingegen schon? Eine derart verstandene Kybernetik würde dann leider nichts taugen zur Lösung von Alltagsproblemen.

        Noch ein persönlicher Hinweis: ThomasJ.S. hat dir einen Link auf die site der GPI mit dem Artikel von Bert Klauninger genannt. Ich bin Gründungsmitglied der GPI.

        Beste Grüsse
        Richard

        1. Hi Richard,

          Der konkrete Bezugspunkt ist eine von verschiedenen Autoren vertretene These, dass Schüler und Prüfungskandidaten unter Druck gesetzt werden, als triviale Maschinen zu funktionieren, etwa beim Ausfüllen von multiple choice tests oder bestimmten Fragestellungen im Unterricht.
          Das Thema ist so umfassend und für mich interessant, dass ich es gern in anderem Rahmen mit dir diskutieren möchte.

          Vielleicht müssen wir irgendwann mit der Diskussion in die Lounge umziehen, ich wollte aber die Meinung der Informatiker hören, die ich eher hier ansprechen kann.

          »»Ich finde, das Problem entsteht viel früher, nicht erst bei den Fragen. Schon wenn Lerninhalte geplant und festgelegt werden, müsste auch die Art der Erfolgsmessung bestimmt werden. Ausserdem schafft die Terminologie einige Verwirrung. Würde nämlich die readikal kunstruktivistische Denkweise konsequent angewandt, könnte jeder den Sinn der Fragen selbst "konstruieren" und auch entsprechend beantworten.
          Wie meinst Du das? Ich verstehe hier nicht, in welchem Sinne Du den Begriff "Konstruktivismus" verwendest.

          Hinzu kommt, dass viele Antworten nach dem Blackbox-Modell tatsächlich nach der Art der trivialen Maschine korrekt sind. Antworten auf Fragen: "Wieviel sind 3% von 120 Euro?", "Wie heisst der Bundespräsident?" haben nun mal eine eindeutige Zuordnung von Input und Output. Ganz generell bezweifle ich allerdings, ob ein Mensch überhaupt nach dem Muster der trivialen Maschine "funktionieren" kann, insofern traue ich den Pädagogen auch gar nicht zu, aus Schülern triviale Maschinen machen zu können.

          Das unterstellt die Systemtheorie auch nicht. Die Schüler bleiben biologisch Menschen, systemtheoretisch Bewusstseinssysteme und somit Systemumwelt und für das System Personen, also definierte Elemente eines Systems, hier des Schulsystems. In der Unterrichtsinteraktion findet immer mehr statt als das triviale Frage-Antwort oder Aufgabe-Lösungsspiel und tatsächlich gibt es schon auf dieser Ebene Komplikationen. Unterricht bleibt Interaktion, produziert über den Unterricht hinaus Informationsüberschüsse. Der Lehrer weiß/vermutet über jeden Schüler mehr als jemals im Unterricht zur Sprache kommt, die Schüler sehen/wissen mehr vom Lehrer als kommuniziert wird.

          Die Frage, wie Menschen darauf reagieren, wenn sie in der Schule oder am Arbeitsplatz dauerhaft und immer wieder trivialisiert werden, schließt solche Überschüsse und den Umgang damit ein. Um es simpel und modellhaft zu sagen: Der Schüler, der trivial antwortet, löscht damit nicht die internen Selbstbeschreibungen, er übergeht sie aufgrund des Lernprozesses, was von ihm verlangt wird und welche Gratifikationen es dafür gibt.

          1. Die Antworten sind dem Fragendem bekannt.
            Ich habe irgendwie Mühe mit der Vorstellung, dass der Lehrer selbst die richtigen Antworten nicht kennt ;-)

          Wenn man eine Frage stellt, gibt es meist eine Perspektive auf eine mögliche Antwort, aber durchaus auch Überraschungen. Die Kritik, die man aus den zitierten Beschreibungen entwickeln könnte, waäre, dass Schule und Betrieb die Schüler bzw. Mitarbeiter in einem Maße trivialisieren, die zu Formen paradoxer Kommunikation und überschüssigen Nebenkulturen führen. Die Systemtheorie legt den Finger in diese Wunde, aber nicht aus der Perspektive des Kritikers, der bestehende Zustände ändern will, sondern aus der Perspektive des Beobachters, der Mechanismen nachgeht.

          Vorschlag: von _Aufgaben_, statt von _Fragen_ sprechen und Luhmanns Einwand ist entkräftet.

          Nein. Auch Aufgabe/Lösungsschemata sind trivial.

          Luhmann argumentiert weltfremd und praxisfern, die Situation der Schule ist doch nicht generell mit dem sozialen Alltag gleichzusetzen. Er ignoriert zudem die lange Tradition der Pädagogik, die auf Platon und der Sokratischen Methode basiert.

          Es gibt lange Absätze zur gesellschaftlichen Entwicklung der Pädagogik, auch zu den griechischen Konzepten, ich habe das hier nur nicht referiert.

          Wenn im Berufs- und sonstigen Leben von Menschen verlangt wird, wie triviale Maschinen zu funktionieren, wird dies ja nicht durch die Schule verursacht. Im Gegenteil könnte gefordert werden, die Schule solle darauf vorbereiten.

          Luhmann würde genau dies als "heimlichen Lehrplan" bezeichnen.

          Ich bin skeptisch, ob sich die gesellschaftliche Wirklichkeit einfach durch ein anderes Vorgehen in der Schule ändern lässt.

          Wie sich Gesellschaft verändert, ist ein anderes Thema. Aus der Sicht der Systemtheorie ist aber sicher, dass Veränderungen in Subsystemen wie etwa dem Schulsystem unmittelbar auf andere gesellschaftliche Systeme wirken, indem deren Umwelt komplexer wird. Dabei lassen sich die Beziehungen zwischen System aber nicht auf einfache Ursache-Wirkungsschemata reduzieren, weil jedes komplexe System gezwungen ist, auf Änderungen in der Umwelt durch eigene Strukturbildung oder Systemmechanismen zu reagieren.

          Du hast das Argument an dieser Stelle falsch verstanden und "trivial" mit "primitiv" übersetzt, was nicht gemeint ist.
          Viel schlimmer ...  ;-)  ... ich weigere mich seit über dreissig Jahren beharrlich, das richtig zu verstehen.

          *g*

          Worin liegt den der Nutzen der Aussage, nach dem gesunden Menschenverstand sei etwas nicht trivial, nach Auffassung der Kybernetik hingegen schon? Eine derart verstandene Kybernetik würde dann leider nichts taugen zur Lösung von Alltagsproblemen.

          Jede Theorie entwickelt ihre Begrifflichkeit, übernimmt dabei - geschickt oder ungeschickt - Begriffe aus der Alltagssprache. Es gibt aus meiner Sicht ärgerlichere Beispiele als die sauber definierte Definition des Wörtchens "trivial", das auch in anderen Wissenschaftsbereichen für einiges herhalten muss, etwa in der Literaturwissenschaft. Wenn Wörter reden könnten *g*

          Noch ein persönlicher Hinweis: ThomasJ.S. hat dir einen Link auf die site der GPI mit dem Artikel von Bert Klauninger genannt. Ich bin Gründungsmitglied der GPI.

          Jetzt habe ich noch mehr Hausaufgaben... Schreib doch mal ein paar Zeilen über die GPI und was Du dort machst. Es ist oft hilfreicher, wenn ein Insider ein paar Sätze formuliert, als wenn man sich aus dem Netz was zusammeninterpoliert....

          Viele Grüße
          Mathias Bigge

          1. Hallo Mathias,

            Wie meinst Du das? Ich verstehe hier nicht, in welchem Sinne Du den Begriff "Konstruktivismus" verwendest.

            Im Sinne der philosophischen Glaubensrichtung des "Konstruktivismus".

            Das unterstellt die Systemtheorie auch nicht. Die Schüler bleiben biologisch Menschen, systemtheoretisch Bewusstseinssysteme und somit Systemumwelt und für das System Personen, also definierte Elemente eines Systems, hier des Schulsystems.

            Die Schwierigkeit bei der systemtheoretischen Betrachtungsweise ist aber gerade das jeweilige Abgrenzen von System und Systemumwelt. Damit wird Komplexität reduziert um den Preis einer Verfremdung der Wirklichkeit. Die gewonnenen Erkenntnisse sind dann von der jeweils gewählten Systemabgrenzung abhängig. Die Familienverhältnisse eines Schülers können einmal Teil des betrachteten Systems sein, einmal aber der Systemumwelt angehören, das kann nunmal nicht ohne Einfluss auf die gewonnene Erkenntnis bleiben.

            In der Unterrichtsinteraktion findet immer mehr statt als das triviale Frage-Antwort oder Aufgabe-Lösungsspiel und tatsächlich gibt es schon auf dieser Ebene Komplikationen. Unterricht bleibt Interaktion, produziert über den Unterricht hinaus Informationsüberschüsse. Der Lehrer weiß/vermutet über jeden Schüler mehr als jemals im Unterricht zur Sprache kommt, die Schüler sehen/wissen mehr vom Lehrer als kommuniziert wird.

            Volle Zustimmung. Aber gerade dieser Umstand ist mit den Methoden der Systemtheorie so schwer erfassbar. Wird er in die Systemumwelt verbannt, wird er aus der Betrachtung ausgeklammert, bleibt er im System, wird dieses zu komplex.

            Um es simpel und modellhaft zu sagen: Der Schüler, der trivial antwortet, löscht damit nicht die internen Selbstbeschreibungen, er übergeht sie aufgrund des Lernprozesses, was von ihm verlangt wird und welche Gratifikationen es dafür gibt.

            Eigentlich ist das der Kern der Sache. Und die Frage ist, inwieweit hier die Unterscheidung zwischen trivialen und nichttrivialen Maschinen eine Hilfe bieten kann. Ich meine keine nennenswerte, würde mich aber ganz gern vom Gegenteil überzeugen lassen.

            Die Systemtheorie legt den Finger in diese Wunde, aber nicht aus der Perspektive des Kritikers, der bestehende Zustände ändern will, sondern aus der Perspektive des Beobachters, der Mechanismen nachgeht.

            Das ist wohl der wesentlichste Punkt meiner Kritik. Zunächst einmal ist die Funktion eines aussenstehenden, neutralen, sachlichen Beobachters sehr fragwürdig und eigentlich unerfüllbar. Bezüglich der Unterscheidung zwischen trivialen und nichttrivialen Maschinen kommt indes eine weitere gravierende Unklarheit hinzu. Die nichttriviale Maschine gehört der Kybernetik 2. Ordnung an (nach Heinz von Foerster), deren Kennzeichen es aber ist, dass der Beobachter in das System einbezogen wird. Es handelt sich also nicht mehr um ein _beobachtetes_, sondern um ein _beobachtendes_ System. Mir ist reichlich unklar, wie ein Beobachter zugleich sachlich und neutral beobachten und gleichzeitig funktionaler Teil des Systems sein kann.

            Wenn im Berufs- und sonstigen Leben von Menschen verlangt wird, wie triviale Maschinen zu funktionieren, wird dies ja nicht durch die Schule verursacht. Im Gegenteil könnte gefordert werden, die Schule solle darauf vorbereiten.
            Luhmann würde genau dies als "heimlichen Lehrplan" bezeichnen.

            Ich auch. In dem er aber aufgedeckt wird, verliert er seine Heimlichkeit und wird für Schüler _und_ Lehrer einsichtig.

            Dabei lassen sich die Beziehungen zwischen System aber nicht auf einfache Ursache-Wirkungsschemata reduzieren, weil jedes komplexe System gezwungen ist, auf Änderungen in der Umwelt durch eigene Strukturbildung oder Systemmechanismen zu reagieren.

            Die machen einfach was sie wollen, diese bösen Systeme ;-) ... welche Vorhersagen und welche Einflussnahmen sind möglich? Ansonsten bleibt nur das Handeln nach Versuch und Irrtum und genau das will doch die Systemtheorie eigentlich vermeiden. Wenn die Schule als System in Beziehung zu anderen Systemen und innerhalb von umfassenden Umsystemen verstanden wird, funktioniert das mit dem kausalen Denken der Pädagogik nicht mehr, was dann zunächst einmal verkraftet werden muss.

            Schreib doch mal ein paar Zeilen über die GPI und was Du dort machst.

            Die GPI wurde vor 40 Jahren als "Gesellschaft für Programmierte Instruktion" gegründet. Später wurde sie in "Gesellschaft für Pädagogik und Information" umbenannt. Selbst bezeichnet sie sich als "wissenschaftliche Fachgesellschaft für Multimedia, Mediendidaktik und Bildungstechnologie" und betreibt in Berlin das IB&M Institut für Bildung und Medien, das sich selbst aus Projektmitteln finanziert. Ich war in den Anfangsjahren ziemlich aktiv vor allem im Arbeitskreis "Programmierte Instruktion in der Wirtschaft".

            Beste Grüsse
            Richard

            1. Hi Richard,

              Im Sinne der philosophischen Glaubensrichtung des "Konstruktivismus".

              Ein breiter Strom mit vielen Verästelungen, meine ich.

              Die Schwierigkeit bei der systemtheoretischen Betrachtungsweise ist aber gerade das jeweilige Abgrenzen von System und Systemumwelt.

              Wobei Luhmann unterstellt, dass diese Kerndifferenzierung vom System immer wieder neu kommunikativ geleistet werden muss, zumindest bei komplexen Systemen, die vielfach mit ihrer Umwelt verzahnt ist. Mir erscheint dies in vielen Fällen nachvollziehbar, vor allem bei komplexen Systemen, die immer neue funktionale Untersysteme ausdifferenzieren. Es handele sich ja nicht um eine feste Grenze, sondern um ein Kernproblem des Systems, auf immer neue Anforderung aus der zunehmend komplexen Umwelt zu reagieren. Luhmann versucht also die Systemdefinition nicht als rein analytische Grenzziehung von außen zu fassen, sondern als Systemleistung.

              Ich kenne dieses Problem und seine Folgen besser aus strukturalistischen Untersuchungen, die die jeweils untersuchten Systeme und ihre Grenzen weniger dynamisch sehen. Dennoch geht es auch dort immer wieder um ähnliche Probleme wie bei der Systemtheorie. Mir gefällt an Luhmanns Ansatz, dass er nicht blind auf vorgegebene Systemgrenzen vertraut, sondern diese als dynamischen Untersuchungsgegenstand zu fassen versucht.

              Damit wird Komplexität reduziert um den Preis einer Verfremdung der Wirklichkeit. Die gewonnenen Erkenntnisse sind dann von der jeweils gewählten Systemabgrenzung abhängig. Die Familienverhältnisse eines Schülers können einmal Teil des betrachteten Systems sein, einmal aber der Systemumwelt angehören, das kann nunmal nicht ohne Einfluss auf die gewonnene Erkenntnis bleiben.

              In der Schule werden diese Grenzen aber tatsächlich dauernd thematisiert und sehr weitgehend geregelt. Tatsächlich verändert sich die Lage, je nachdem wieweit Eltern in das Schulsystem einbezogen werden.

              In der Unterrichtsinteraktion findet immer mehr statt als das triviale Frage-Antwort oder Aufgabe-Lösungsspiel und tatsächlich gibt es schon auf dieser Ebene Komplikationen.
              Volle Zustimmung. Aber gerade dieser Umstand ist mit den Methoden der Systemtheorie so schwer erfassbar. Wird er in die Systemumwelt verbannt, wird er aus der Betrachtung ausgeklammert, bleibt er im System, wird dieses zu komplex.

              Durch die Systembildung wird Komplexität immer zugleich reduziert und erweitert. Jedes neue Subsystem erhöht die Umweltkomplexität aller anderen Systeme. Das Verhältnis von System und komplexer Umwelt wird von Luhmann dialektisch gedacht - mit den zu erwartenden Folgeschwierigkeiten. Dennoch überzeugt mich der Ansatz in dieser Hinsicht, da ich beides für beobachtbar halte:
              1. Die Systembildung oder -differenzierung in der Absicht Komplexität zu reduzieren.
              2. Die Notwendigkeit, die wachsend komplexe Umwelt immer wieder neu in das System einzubauen, etwa durch Bildung entsprechender Strukturen oder Regularien.

              ... die Frage ist, inwieweit hier die Unterscheidung zwischen trivialen und nichttrivialen Maschinen eine Hilfe bieten kann. Ich meine keine nennenswerte, würde mich aber ganz gern vom Gegenteil überzeugen lassen.

              Es ist ja in Bezug auf Pädagogik eher eine Nebenbemerkung, die ich dennoch als Lehrer anregend finde: Wo werde ich selbst in dieser Richtung tätig, wo werde ich selber zum Gegenstand dieser Bemühungen? Wie verarbeiten die Schüler den Überschuss, wie tue ich das selbst?

              Die Systemtheorie legt den Finger in diese Wunde, aber nicht aus der Perspektive des Kritikers, der bestehende Zustände ändern will, sondern aus der Perspektive des Beobachters, der Mechanismen nachgeht.
              Das ist wohl der wesentlichste Punkt meiner Kritik. Zunächst einmal ist die Funktion eines aussenstehenden, neutralen, sachlichen Beobachters sehr fragwürdig und eigentlich unerfüllbar.

              Ich glaube nicht, dass Luhmann diese Position für sich postuliert. Die Position des Beobachters unterschiedet sich dennoch in einigen Punkten von der Selbstbeobachtung des Systems:

              1. Die wissenschaftliche Analyse greift die Selbstbeschreibungen des Systems auf und ist in gewisser Weise von ihr abhängig. Es gibt da also so etwas wie die historisch mögliche Erkenntnis, interessante Frage, wie sich das zu Hegel und Marx verhält.
              2. Der Wissenschaftler ist Teil des wissenschaftlichen Systems und folgt daher anderen Spuren und Interessen als der systemangehörige Beobachter.
              3. Der Wissenschaftler muss, ideal gedacht, nicht interessengebunden an Sinnkonstruktionen des Systems teilnehmen. Aus dieser Perspektive kann Soziologie aufklärerisch wirken.

              Es handelt sich also nicht mehr um ein _beobachtetes_, sondern um ein _beobachtendes_ System. Mir ist reichlich unklar, wie ein Beobachter zugleich sachlich und neutral beobachten und gleichzeitig funktionaler Teil des Systems sein kann.

              Dazu habe ich oben schon etwas geschrieben. Die Beziehung zwischen stetig erneuerter Selbstbeschreibung in selbstreferentiellen sozialen Systemen und den verschiedenen Außenperspektiven ist dennoch interessant.

              In dem er aber aufgedeckt wird, verliert er seine Heimlichkeit und wird für Schüler _und_ Lehrer einsichtig.

              Richtig. Die Frage ist, ob man damit den Fallen der paradoxen pädagogischen Situation entkommen kann, oder notwendig diesem Irrtum immer wieder neu aufsitzen _muss_.

              ... welche Vorhersagen und welche Einflussnahmen sind möglich?

              Diese Frage kann man natürlich an jede Untersuchungsmethode stellen. Sciher ist die systemtheoretische Beschreibung nur ein Ansatz unter vielen, sie stellt für mich _eine_ Möglichkeit dar, einen objektiveren Standpunkt und vielleicht ein wenig Gelassenheit gegenüber den in sich selbst rotierenden Reformdebatten und SInndiskussionen zu entwickeln.

              Wenn die Schule als System in Beziehung zu anderen Systemen und innerhalb von umfassenden Umsystemen verstanden wird, funktioniert das mit dem kausalen Denken der Pädagogik nicht mehr, was dann zunächst einmal verkraftet werden muss.

              Ja, das ist vielleicht eine entscheidende Frage der konstruktivistischen Ansätze an die Pädagogik: Sind die intentionalen Vorstellungen von Wissensvermittlung nicht notwendig falsche Selbstbeschreibungen von Pädagogen? Das erfasst eine ganze Reihe von Begriffen des pädagogischen Diskurses, etwa "Motiv" und "Motivation", die weniger als pädagogisch vermittelte oder vom Subjekt erzeugte Ursachen für das Engagement in Lernprozessen erscheinen, sondern nüchtern als sozial akzeptierte Handlungsbeschreibungen ex post, die die wahren Motive weitgehend außer Acht lassen.

              Die GPI

              Danke für die Darstellung! So ganz kriege ich Deine Kritik an der Kybernetik und am Konstruktivismus und Dein Engagement in diesem Kreis noch nicht zusammen. Was fasziniert Dich an diesen Kontexten?

              Viele Grüße
              Mathias Bigge

  5. Moin,

    1. Gibt es besondere Gegebenheiten, in denen der Computer als nichttriviale Maschine reagiert?

    Weiss nicht, ob das zum Thema passt, aber kennst Du die Experimente mit dem Chatbot "Eliza" von Joseph Weizenbaum?
    http://de.wikipedia.org/wiki/Eliza

    Das Programm wurde, wenn ich richtig informiert bin, "getestet", in dem man Versuchspersonen wechselseitig mit dem Programm und mit einem echten Menschen chatten liess. Am Ende mussten sie entscheiden, welche der Kommunikationspartner Maschinen waren.

    Das Experiment entlarvte Eliza klar als Computerprogramm - allerdings auch ettliche der realen Gesprächspartner wurden fälschlicherweise als Programme eingestuft ;).

    Viele Grüße,
    Jörg

    1. Hi Jörg,

      Eliza ist wirklich uralt, sicher kenne ich das. Ich glaube, dass man damals die Schwierigkeiten künstlicher Intelligenz unterschätzt hat. Jedes simple Rollenspiel hat heute bessere Kommunikationsangebote, oder. Dennoch danke für Deine Überlegungen.

      Viele Grüße
      Mathias Bigge

      1. Jedes simple Rollenspiel hat heute bessere Kommunikationsangebote, oder.

        Bei Rollenspielen sind die Dialoge meistens vorgegeben. Man kann bei den Antworten nur zwischen einigen Möglichkeiten auswählen oder die NPCs reagieren auf Schlüsselwörter. Ich kenne kein Rollenspiel, bei dem der NPC frei spricht, wie es bei Eliza (fast) der Fall ist.

        1. Hi Anonymous,

          Bei Rollenspielen sind die Dialoge meistens vorgegeben. Man kann bei den Antworten nur zwischen einigen Möglichkeiten auswählen oder die NPCs reagieren auf Schlüsselwörter. Ich kenne kein Rollenspiel, bei dem der NPC frei spricht, wie es bei Eliza (fast) der Fall ist.

          Anscheinend hat sich das mehr in Richtung auf die Klickerei entwickelt. Ich war schon vor 20 Jahren mal sehr überrascht, wie ein Rollenspiel (Der kleine Hobbit) geschickt mit Schlüsselwörtern umging und Eliza-ähnliche Dialoge entwickelte.

          Viele Grüße
          Mathias Bigge

          1. Bei Rollenspielen sind die Dialoge meistens vorgegeben. Man kann bei den Antworten nur zwischen einigen Möglichkeiten auswählen oder die NPCs reagieren auf Schlüsselwörter. Ich kenne kein Rollenspiel, bei dem der NPC frei spricht, wie es bei Eliza (fast) der Fall ist.
            Anscheinend hat sich das mehr in Richtung auf die Klickerei entwickelt. Ich war schon vor 20 Jahren mal sehr überrascht, wie ein Rollenspiel (Der kleine Hobbit) geschickt mit Schlüsselwörtern umging und Eliza-ähnliche Dialoge entwickelte.

            Eliza arbeitet(e) aber nicht mit Schlüsselwörtern.