Felix Riesterer: Filmtipp: Do you trust this computer?

Liebe Mitlesende,

wer des Englischen ausreichend mächtig ist, der sollte unbedingt diesen Film gesehen haben:

Do you trust this computer? (via Fefe).

Ich sehe ihn als Pflichtprogramm für digitale Nutzer.

Liebe Grüße,

Felix Riesterer.

  1. Hallo Felix,

    „this intelligence, will it contain the good parts, or the bad parts?“

    Was ist „Intelligenz“? Der Begriff ist nicht scharf definiert. Ist es Lernfähigkeit? Die Fähigkeit, logische Schlussfolgerungen aus vorgegebenen Fakten zu ziehen? Die Fähigkeit, aus einem Wust an unscharfen Fakten die relevanten zu selektieren und daraus Erkenntnisse zu gewinnen oder gestellte Probleme zu lösen?

    Was sind „bad parts“ einer Intelligenz? Dunning-Kruger Opfer? Ich glaube, die Formulierung im Film ist falsch gewählt. Die Frage sollte sich auf „bad parts“ menschlichen Verhaltens richten, die entstehen, wenn Intelligenz zu kaltem Kalkül entartet und nicht mehr von Emphatie oder einfach Weisheit begleitet ist. Wenn zum "Kann ich das tun?" nicht mehr gefragt wird "Sollte ich das tun?". D.h. je weiter man die Selbstständigkeit von wissensverarbeitenden Geräten treibt, um so mehr muss man auch an eine Art von "Maschinen-Ethik" denken. Irgendwann kommt man dann hoffentlich bei Asimovs Robotergesetzen heraus. Und wie bei uns Menschen ist das für den Computer der schwierigere Teil.

    Rolf

    --
    sumpsi - posui - clusi
    1. Hallo,

      „intelligence“

      „Intelligenz“

      Gruß
      Kalk

      1. Hallo Tabellenkalk,

        das stimmt. Das I in CIA steht für intelligence, aber nicht für Intelligenz.

        Intelligence is one or more capacities of the mind.

        Und deshalb ist es gelegentlich richtig, intelligence mit Intelligenz zu übersetzen.

        Rolf

        --
        sumpsi - posui - clusi
    2. Lieber Rolf,

      Was ist „Intelligenz“?

      mal sehen was die Wikipedia darüber so sagt:

      Intelligenz (von lateinisch intellegere „verstehen“, wörtlich „wählen zwischen …“ von lat. inter „zwischen“ und legere „lesen, wählen“) ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit des Menschen. Da einzelne kognitive Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition der Intelligenz. Vielmehr schlagen die verschiedenen Intelligenztheorien unterschiedliche Operationalisierungen des alltagssprachlichen Begriffs vor. [Quelle: Wikipedia]

      Ja, der Begriff lässt sich kaum zielgenau fassen.

      Der Begriff ist nicht scharf definiert. Ist es Lernfähigkeit? Die Fähigkeit, logische Schlussfolgerungen aus vorgegebenen Fakten zu ziehen? Die Fähigkeit, aus einem Wust an unscharfen Fakten die relevanten zu selektieren und daraus Erkenntnisse zu gewinnen oder gestellte Probleme zu lösen?

      Sicherlich müsste man das alles mit "ja, auch" beantworten. In der Summe entsteht eine Software, die unter Zuhilfenahme von Sensoren in der Lage ist, auf ihre "Umgebung" kontextgerecht(!) zu reagieren, um gemäß ihrer Handlungsmaxime (wie auch immer diese tatsächlich aussehen mag) zielführend zu handeln.

      Was sind „bad parts“ einer Intelligenz?

      Damit sind sicherlich diejenigen gemeint, die der menschlichen Zivilisation/Bevölkerung schaden können und wahrscheinlich auch würden/werden.

      Die Frage sollte sich auf „bad parts“ menschlichen Verhaltens richten, die entstehen, wenn Intelligenz zu kaltem Kalkül entartet und nicht mehr von Emphatie oder einfach Weisheit begleitet ist.

      Muss es denn unbedingt "„bad parts“ [des] menschlichen Verhaltens" sein? Genügt nicht eine im Ergebnis für Menschen im Zweifelsfalle schädliche Verhaltensweise?

      Wenn zum "Kann ich das tun?" nicht mehr gefragt wird "Sollte ich das tun?".

      Eben! Eine sich selbst ausbildende Software, die anhand ihrer Sensorik und maschinellen Lernens die Fähigkeit erlangt hat, auf ihre Umwelt zu reagieren, wird die ihr gegebene Zielsetzung zu verwirklichen suchen. Ob sie dabei ethische, empathische oder sonstige Kriterien anlegt, vermag im Film niemand zu sagen oder gar zu garantieren. Und genau das ist ja das Dilemma vor dem Hintergrund, dass die Entwicklung von künstlicher Intelligenz unaufhaltsam (aufgrund monetärer Interessen) vorangetrieben wird.

      D.h. je weiter man die Selbstständigkeit von wissensverarbeitenden Geräten treibt, um so mehr muss man auch an eine Art von "Maschinen-Ethik" denken.

      Das ist ein springender Punkt. Eine Kernaussage des Films ist ja gerade, dass dieser Aspekt von vornherein im Mittelpunkt stehen sollte, aber aus $Gründen (zumeist wahrscheinlich Kostengründen) hintenan stehen muss. Im Film, meine ich mich zu erinnern, wird eine Parallele zur Softwaresicherheit gezogen, die auch nicht "einfach so" im Anschluss "draufgeklatscht" werden kann, vor allem deshalb nicht, da niemand die tatsächliche Funktionsweise von künstlichen Intelligenzen verstehen kann.

      Irgendwann kommt man dann hoffentlich bei Asimovs Robotergesetzen heraus. Und wie bei uns Menschen ist das für den Computer der schwierigere Teil.

      Momentan scheint sie sogar ein völlig unlösbarer Teil zu sein, der die ganze Sache potenziell sehr gefährlich macht. Vor allem wenn man in Betracht zieht, wie stark unsere Welt bereits vernetzt ist, und welche Menge an Daten mit dieser Vernetzung einhergeht.

      Was mir als Zuschauer am Anfang großen Spaß gemacht hat, waren die vielen Anspielungen auf (und Einspielungen von) Sci-Fi-Filmen, die diese Thematik bereits deutlich illustriert haben. Jedoch scheint die große Masse der digitalen Nutzer die große Übereinstimmung von unserer Wirklichkeit mit diesen Fiktionen weder zu sehen noch sehen zu wollen.

      Dazu kommt eine Art offensichtlich automatischer Anpassung der menschlichen Ethik, wenn neue Waffensysteme Auseinandersetzungen der diversen Kräfte dieser Welt verändern. Im Film werden Parallelen zur Atombombe gezogen. Aus der Sicht einer Zeit vor der Existenz von Nuklearwaffen wären solche Waffen sofort zu ächten gewesen. Kaum waren sie da, war das Haben und Herstellen solcher Waffen plötzlich "in Ordnung". Die Menschheit hat ihre ethischen Maßstäbe einfach angepasst, um mit diesen Waffen zu leben, denn wie soll man sie wieder aus der Welt schaffen, wenn zu große Interessen ihre Existenz behalten wollen?

      Die künstliche Intelligenz ermöglicht autonome Waffensysteme. Sie kann prinzipiell nicht nur ein Auto selbst lenken, sie kann auch einen Menschen erkennen und selbst entscheiden, ob seine Tötung ihrer Zielvorgabe entspricht oder deren Erreichen fördert. Und sobald diese autonomen Waffen einmal erfolgreich getestet wurden (siehe Atombombe im 2. Weltkrieg) werden auch diese Waffen die Menschheit dazu bringen, ihre Ethik anzupassen, anstatt dass man sie verhindert. Denn anders als die Atombombe, sind diese Waffen "intelligent" und können autonom auf ihre Umwelt reagieren. Sie sind ja datenverarbeitende Systeme und können daher prinzipiell gehackt werden. Sicherlich werden die einen Systeme in Zukunft versuchen, die anderen zu hacken, um sie so zu kontrollieren. In dem Moment sind wir als Menschheit nur noch Zuschauer eines Spiels, das den automatisierten Börsenhandel wie Kinderspielerei aussehen lassen wird. Und wenn dann eine Masse aus zusammen arbeitenden künstlichen Intelligenzen das Spiel für sich entscheiden haben sollten, sind wir von der Idee eines Skynet aus den Terminator-Filmen nicht mehr weit weg.

      Was kann denn sprichwörtlich morgen schon Realität werden? Die Zeitdauern, die eine Entwicklung solcherlei Technik laut Fachleuten bräuchte, wurde von der Wirklichkeit bisher jedesmal stark nach unten korrigiert.

      Und das alles stimmt mich doch sehr nachdenklich.

      Liebe Grüße,

      Felix Riesterer.

    3. Hallo Rolf,

      Wenn zum "Kann ich das tun?" nicht mehr gefragt wird "Sollte ich das tun?".

      Interessante Aussage, mit der sich gerade ein befreundeter Autor von mir befasst. Er sieht das so, wenn ich ihn richtig verstanden habe: KI wird niemals funktionieren, solange die Lösung durch immer stärkere Rechenpower zu erzielen gesucht wird. Er ist der Meinung, dass es eben besser wäre, anstatt binär eher, wie soll ich sagen tritär, also Ja/Nein/Vielleicht als Programmstruktur. Und der Gedanke erscheint auch nicht abwegig, denn der Mensch tickt ja meist nicht anders, unsere (möglichen)Handlungen werden durch Subroutinen festgelegt, die uns oft von etwas abhalten, was ansonsten evtl. nachteilige Konsequenzen haben könnte. Umgekehrt handeln wiroft der Belohnung wegen. Aber immer ist dieses "Vielleicht" der Unterschied zum binären System. Insofern, werden sich zukünftige Maschinen also doch fragen: "Sollte ich das tun?"

      Gruss
      Henry

      1. hallo

        ... Aber immer ist dieses "Vielleicht" der Unterschied zum binären System. Insofern, werden sich zukünftige Maschinen also doch fragen: "Sollte ich das tun?"

        Was auch nur ein komplexeres binäres System ist. Ein Computer, der selbstverantwortlich mit seinen Energieressourcen umgeht, könnte entscheiden, dass eine bestimmte Anwendung nicht nützlich ist, oder ganz einfach eine nicht zu tolerierende Verausgabung darstellt. Es werden aber im Detail immer false/true Entscheidungen gefällt.

      2. Hallo Henry,

        die Idee der "fuzzy logic" ist ja nicht so neu. Und neuronale Netze arbeiten auch nicht mit JA/NEIN, sondern mit Gewichtungen. Unser Gehirn ist nicht digital, sondern ein analoges Rückkopplungssystem.

        Daraus folgt aber nicht, dass Intelligenz nur mit analogen Systemen machbar ist. Digitale Systeme können durchaus analoge Verhaltensweisen nachbilden.

        Das Problem ist die massiv parallele Verarbeitung in unserem Gehirn, die ein Computer eben nicht beherrscht. Unser Gehirn hat ca 86 Milliarden Nervenzellen, die meisten davon interessanterweise im Kleinhirn. Ein Mikroprozessor hat, wenn's hoch kommt, 64 Kerne. Die sind zwar VIEL schneller als ein Neuron, aber viele Milliarden Neuronen im Parallelbetrieb simulieren können sie auch nicht. Frage ist natürlich: Muss man das tun? Kann man das Gehirn vielleicht in "Funktionseinheiten" teilen und diese anders als durch parallel arbeitende Neuronen realisieren? Unser Gehirn hat ja auch deshalb so viele Neuronen, weil das einzelne Neuron nicht sonderlich fix ist (2ms für einen Puls im Aktionspotenzial, wenn ich Wikipedia richtig verstehe.

        Aber wir verstehen einfach nicht, wie die Nervenzellen interagieren. Wir kennen Details, wir wissen über einzelne Neuronen Bescheid, wir können Hirnregionen benennen - aber was hilft mir in einem Mikroprozessor das Wissen über Transistoren und die Info, dass hier die ALU ist und dort der Cache. Deswegen weiß ich immer noch nicht wie die ALU rechnet. Was IEEE-Fließkommazahlen sind. Was Branch Prediction ist und wie eine Meltdown-Attacke funktioniert. Was ein Quicksort tut oder wie ein Filmbild decodiert wird. Es wird auch im Gehirn einen Stack von Algorithmen geben, teils in HardWetware, und es wird sicher auch eine Form von Software geben. Hirnforscher werden sicherlich ein paar Einblicke haben, aber ich glaube nicht, dass sie schon mehr wissen als z.B. Urmenschen über das Weltall. Ganz zu schweigen von der Frage, wie die Millionen Jahrhunderte alte Firmware unserer DNA das Gehirn eines Fötus eigentlich bootet.

        Deswegen werden KI-Systeme, die wir bauen, ganz anders realisiert sein. Sie haben Grenzen, man wird sie zunächst auf kognitive Leistungen trimmen. Einfach weil nur begrenzte Rechnenleistung da ist. Und niemand, der ein KI-System bezahlen muss, wird Milliarden dafür ausgeben wollen, dass ihm die KI dann sagt: „Ich finde Ihren Wunsch unethisch. Das tue ich nicht!“ Wer KI baut, will einen intelligenten, aber gefügigen Sklaven. Keine Persönlichkeit. Das ist die Gefahr.

        Rolf

        --
        sumpsi - posui - clusi
        1. Hallo Rolf,

          halber Roman, den du hier ablieferst, aber sehr informativ/inspirierend, danke.

          Und niemand, der ein KI-System bezahlen muss, wird Milliarden dafür ausgeben wollen, dass ihm die KI dann sagt: „Ich finde Ihren Wunsch unethisch. Das tue ich nicht!“ Wer KI baut, will einen intelligenten, aber gefügigen Sklaven. Keine Persönlichkeit. Das ist die Gefahr.

          Da bin ich nicht ganz sicher. Kommt auf die Anwendung an, von einem selbstfahrenden "intelligenten" Auto erwarte ich schon, dass er unsinnige/gefährliche Anweisungen von mir missachtet. Ist natürlich nicht was du meinst, aber ohne ein wenig eigene Persönlichkeit, wär's für mich keine echte KI, bzw. wer möchte schon einen Lebenspartner der zu allem Ja und Amen sagt, obwohl… 😉

          Gruss
          Henry

    4. Hej Rolf,

      „this intelligence, will it contain the good parts, or the bad parts?“

      Es geht ja um das gute und schlechte im Menschen, das man ggfs weitergibt.

      Man könnte Software ja "gut" designen. Allerdings wird ja beschrieben, dass die Vorherrschaft in der Entwicklung von AI auch die Vorherrschaft in der realen Welt sichern wird. Das Militär ist eine wichtige Triebfeder bei der Weiterentwicklung. Also ist diese Frage leider längst beantwortet. Es wird Maschinen geben, deren einzige Aufgabe es sein wird, Menschen zu töten!

      Was ist „Intelligenz“? Der Begriff ist nicht scharf definiert.

      In dem und dem von mir verlinkten NG-Film wird das eigentlich sehr schön auseinander genommen — über Bewusstsein bis hin zum erschaffen von neuem wie Kunst und Träumen.

      Die Frage sollte sich auf „bad parts“ menschlichen Verhaltens richten, die entstehen, wenn Intelligenz zu kaltem Kalkül entartet und nicht mehr von Emphatie oder einfach Weisheit begleitet ist. Wenn zum "Kann ich das tun?" nicht mehr gefragt wird "Sollte ich das tun?".

      Unter Umständen fragt sich das eine Maschine, die keine materiellen Bedürfnisse hat, nicht friert, nicht müde wird etc. eher als ein Mensch…

      Bleibt abzuwarten, ob Maschinen Gefühle wie Gier oder Neid überhaupt entwickeln.

      Davon mal ganz abgesehen ist diese Trennung Mensch einerseits, Maschine andererseits meiner Meinung nach nicht die (nahe) Zukunft. Wir werden uns zunächst die Maschinen "einverleiben", indem wir uns Chips, Sensoren, Anschlüsse und immer ausgefeiltere Prothesen implantieren.

      Parallel dazu werden sicher auch Maschinen entstehen und im Laufe einer weiteren Entwicklung, werden diese sich vielleicht menschliche Teile einverleiben. Vielleicht mag es eine Weile lang praktisch und ressourcenschonend sein, einem human Brain 2.0 Rechenaufgaben zu übergeben. Aber am Ende wie auch das nicht mehr nötig sein.

      Wir machen uns gerade überflüssig…

      Wir stehen jetzt ungefähr hier:

      O du Ausgeburt der Hölle! Soll das ganze Haus ersaufen? Seh ich über jede Schwelle doch schon Wasserströme laufen. Ein verruchter Besen, der nicht hören will! Stock, der du gewesen, steh doch wieder still!

      (Goethe, Zauberlehrling)

      Nur sind wir selber der Meister und keiner wird kommen, den Spuk anzuhalten. Insofern haben wir alle, die dieses Gedicht kennen und wissen sollten, dass man keine Kräfte entfesselt, die man nicht wieder aufhalten kann — dennoch genau das getan…

      Die Sache hat begonnen und wir werden sie nicht mehr aufhalten!

      Davon sind ausnahmsweise einmal alle in mir überzeugt!

      Schaut mal spezielle diese Stelle hier (auch diejenigen die nicht so gut englisch können oder denen der ganze Film zu lange Dauer. Das ist IMHO die Schlüsselszene).

      Hatte Facebook nicht unlängst eine KI abgeschaltet, die in einer uns unverständlichen, selbst entwickelten Sprache über Server hinweg kommunizierte?

      Marc

  2. Hi,

    wer des Englischen ausreichend mächtig ist, der sollte unbedingt diesen Film gesehen haben:

    Nein, schon die Fragestellung im Titel des Beitrages ist merkwürdig, "Do You Trust This Computer?" ???

    Vertrauen kann man Menschen aber nicht Maschinen.

    MfG

    1. Hej pl,

      Vertrauen kann man Menschen aber nicht Maschinen.

      Damit liegst du leider völlig falsch. Es wird sicher bald verboten selber Auto zu fahren, weil man Computern mehr vertraut als Menschen.

      Man lässt Computer heute Berechnungen durchführen, die uns zu komplex sind (Klimavorhersagen ist nur das populärste Beispiel). Man vertraut auf die Richtigkeit der Ergebnisse und nimmt diese als Grundlage für Entscheidungen im echten Leben.

      Und wir werden uns in Zukunft lieber von einem Roboter operieren lassen, als von einem Arzt. Weil wir einem Roboter (zu recht!) mehr vertrauen werden.

      Aber auch heute schon vertrauen und lieben(!) Menschen technische Geräte.

      Mehr noch: Facebook gibt das Erkennen von Hassnachrichten usw an die AI ab: eine Arbeit, die für Menschen zu aufwändig wäre.

      Wie in dem Film gesagt wurde, verlassen sich Diktatoren sicher bald darauf, dass AI loyale Menschen von Querulanten anhand von Porträts unterscheiden kann.

      Marc

      1. moin,

        Vertrauen kann man Menschen aber nicht Maschinen.

        Damit liegst du leider völlig falsch. Es wird sicher bald verboten selber Auto zu fahren, weil man Computern mehr vertraut als Menschen.

        Nun, das Alles [..] hat mit Vertrauen nichts aber auch gar nichts zu tun sondern einzig und allein mit Profitgier. Und ja, angesichts mehrerer tödlicher Unfälle mit selbstfahrenden Autos kann von Vertrauen wohl kaum noch die Rede sein!

        MfG

        1. Hej pl,

          moin,

          Vertrauen kann man Menschen aber nicht Maschinen.

          Damit liegst du leider völlig falsch. Es wird sicher bald verboten selber Auto zu fahren, weil man Computern mehr vertraut als Menschen.

          Nun, das Alles [..] hat mit Vertrauen nichts aber auch gar nichts zu tun sondern einzig und allein mit Profitgier. Und ja, angesichts mehrerer tödlicher Unfälle mit selbstfahrenden Autos kann von Vertrauen wohl kaum noch die Rede sein!

          Es müsste heißen: Kann wohl noch nicht die Rede sein. Autonome Autos fahren bald sicherer als du und ich. Und ich rede hier vom Vertrauen, wie alle anderen Menschen das Wort benutzen, nicht so, wie das Wort in Deinem selbstverfassten Wörterbuch definiert ist. 😉

          Die meisten Menschen verstehen die Abläufe hinter der Autonomisierung und AI nicht mal in den Grundlagen.

          Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.

          Insofern dürfte niemand dieser Technik vertrauen. Trotzdem wird es getan. So sind wir Menschen nun mal. Wenn wir etwas nicht verstehen, können wir uns davor fürchten oder fest davon überzeugt sein, dass das super ist. Und wenn man es uns dann erklären will, wird es uns oft langweilig und es ist nicht möglich, die meisten von uns von einer einmal gefassten Meinung wir schnöden Argumenten abzubringen…

          Du bist ja selbst ein gutes Beispiel dafür 😉

          Wenn man aber sogar selber zugeben muss, dass man selber nciht im Detail versteht, was da genau passiert, wen will man dann noch von irgendetwas überzeugen?

          Marc

          1. Hallo marctrix,

            Autonome Autos fahren bald sicherer als du und ich.

            Autonome Autos fahren jetzt bereits sicherer als wir. Die Zahlen sind da sehr eindeutig.

            Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.

            Ich weiß nicht, wo du das her hast, aber das stimmt so nicht. Wie maschinelles Lernen abläuft und funktioniert ist bekannt und sehr genau dokumentiert. Die Algorithmen sind seit den 70ern bekannt.

            Wenn du meinst, dass nicht verstanden wird, warum eine AI eine Entscheidung trifft: das ist häufig wahr. Es ist zwar möglich nachzuvollziehen, welcher Lernvorgang hinter einer Entscheidung liegt, aber das ist zeitaufwendig und schwer und muss für jede Entscheidung einzeln nachvollzogen werden.

            Insofern dürfte niemand dieser Technik vertrauen.

            Ich würde davon auch dringlichst abraten. Skepsis ist IMHO durchaus angebracht.

            LG,
            CK

            1. Hej Christian,

              Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.

              Ich weiß nicht, wo du das her hast

              Aus dem Film. Dort wird an einer Stelle behauptet, dass versucht würde, menschliches Lernen durch neuronale Netze nachzubilden, indem manche „Wege“, die zu sinnvollen Ergebnissen führen, verstärkt gegangen werden und Wege, die zu nichts geführt haben, „verwaisen“.

              Interessant ist ja der Roboter, mit dem man herausfinden wollte, ob er sich selber und seine Möglichkeiten erkennen kann. Das hat man versucht herauszufinden, indem man ihn untrainiert ohne irgendein Wissen die Aufgabe gab, sich fortzubewegen. Dabei hat er verschiedene Impulse gesendet und eine Virtualisierung dessen, als was er sich selber verstanden hat, war tatsächlich der tatsächlichen räumlichen Erscheinung sehr ähnlich.

              Am interessantesten war aber etwas, was niemand vorhergesehen hatte. Das Teil hat beim Versuch, gehen zu lernen auch seine Umgebung beobachtet und offenbar festgestellt, dass das, was um ihn herum passiert, etwas mit ihm zu tun hat.

              Ein Neuron hat die Gesichter der umstehenden Personen beobachtet. Da dieses Neuron ziemlich aktiv war und nicht „verwaiste“, muss dem Computer klar geworden sein, dass das Auswerten der Reaktionen auf seine Versuche zur Erfüllung der Aufgabe sinnvoll ist.

              So naheligend das auch ist (unsere Gesichter verändern sich ja, wenn wir uns über den Erfolg freuen oder über den Misserfolg lachen oder interessiert beobachten): niemand hatte das vorhergesehen.

              , aber das stimmt so nicht. Wie maschinelles Lernen abläuft und funktioniert ist bekannt und sehr genau dokumentiert. Die Algorithmen sind seit den 70ern bekannt.

              Und dennoch ist es nicht zu begreifen. Wenn wir unser Gehirn nachzubauen versuchen (und es vielleicht sogar gelingt), bevor wir es verstehen (was wir ja noch nciht tun) — wieso sollten wir dann das Ergebnis verstehen (obwohl uns diese Experimente beim Verständnis helfen werden).

              Gerade in diesem Versuch, bei dem es darum ging, ob eine Maschine ein Verständnis für sich, seinen „Körper“ entwickeln kann, hat man alte Erkenntnisse außer acht gelassen, z.B. dass Beobachtung die Ergebnisse verändern kann (besonders, wenn es um die Erforschung einer Form von „Verhalten“ geht).

              Einem Computer, der nie vergisst, wäre das vermutlich nicht passiert.

              Wenn du meinst, dass nicht verstanden wird, warum eine AI eine Entscheidung trifft: das ist häufig wahr. Es ist zwar möglich nachzuvollziehen, welcher Lernvorgang hinter einer Entscheidung liegt, aber das ist zeitaufwendig und schwer und muss für jede Entscheidung einzeln nachvollzogen werden.

              Als Erklärung für das Nichtverstehen wurde die Komplexität der Technik genannt. Bei Google arbeiten inzwischen 10 Millionen Server im Verbund, die nächste Ausbaustufe wird 100 Millionen Server miteinander vernetzen.

              Die AI bei Google ist bereits jetzt fleißig. Sie soll beispielsweise helfen, die internen Abläufe zu optimieren um energieeffizenter zu werden.

              Die Billionen von Operationen können von uns nicht mehr nachvollzogen werden, weil wie du sagst, das nur für einzelne, relativ kleine Entscheidungen möglich ist. Um das nachzuvollziehen, was dort in sehr kurzer Zeit an Berechnungen statt gefunden hat, brauchen wir dann sehr lange.

              Und die Rechner werden immer schneller — sie werden uns also immer schneller davonrennen.

              Bevor wir eine Entscheidung oder Entwicklung verstehen, werden also Billionen von weiteren Entscheidungen getroffen.

              Natürlich werden Modelle helfen und Theorien, man wird Entscheidungen Klassifizieren usw.

              Aber ich denke nicht, dass wir noch mal in der Lage sein werden, zu begreifen was da im Detail vor sich geht in dem Sinn, das wir das Lernverhalten von neuronalen Netzen vorhersehen können. Bisher ging das. Wir konnten vorhersehen, dass ein Computer die Frage: Was ist 2+2? mit 4 beantworten würde.

              Die neuronalen Netze lernen und verändern sich ja selbständig und wir geben zwar die Regeln vor, aber ich bin mir sicher, dass auch diese Regeln schon maschinell optimiert werden.

              Zwei Dinge sind hier besonders interessant: der von MS entwickelte autonome Chatbot, der zum Rassist wurde, hat Texte so geschrieben, dass er möglichst viele Likes bekam. Das ist doch ein Spiegel der Mehrheit. Wir wollen das nicht wahrhaben, aber der Mehrheit von uns gefallen offenbar rassistische Äußerungen. Damit wickelt man uns um den Finger.

              Noch mal wir wollen das vermutlich einfach nicht wahr haben, dass wir uns u.U. genetisch bedingt unter Unsergleichen wohler fühlen, als unter Fremden. Dabei können Fremde durchaus Teil werden von dem, was wir als "wir" verstehen.

              Wenn wir das akzeptieren ist das ein erster, wichtiger Schritt, um Fremde aufnehmen zu können und uns auf Neues freuen zu können.

              Hier kommt wieder das Vertrauen ins Spiel. Offenbar sind viele Menschen der Auffassung, dass Roboter so programmiert werden können, dass sie uns nur gutes tun. Spätestens wenn (ich mag schon gar nicht mehr "falls" sagen) die eigene "Meinungen" äußern — allein auf Wahrheiten und korrekten, logischen Rückschlüssen beruhend — die wir nicht hören wollen, weil wir etwas nciht wahrhaben wollen, werden Robotern so ablehnend gegenüber stehen wie allem Fremden. Es gibt so einen unausgesprochenen Konsenz im Zwischenmenschlichen, höflich miteiander umzugehen und vielleicht auch mal dem Gegenüber eine offensichtlich Falsche Meinung zu lassen.

              Roboter (und @Gunnar Bittersmann oder @pl 😉) halten sich da mitunter nicht dran, weil sie recht haben oder glauben recht zu haben.

              Und sie bleiben dann auch bei ihrer Meinung. Da kann man schon mal dran testen, wie man sich einem Roboter gegenüber fühlt, der tatsächlich und objektiv unter Zuhilfename aller ektuellen Erkenntnisse immer wieder recht hat, auch da, wo es uns die Wahrheit so überhaupt nciht gefällt.

              Das fühlt sich so an wie:

              Ich: „Ja. Ist schon asi, wenn ausgerechnet Behinderte Menschen mit meiner webseite nciht zurecht kommen, Die haben es ja sowieso schon schwer im Leben. Das ist aber kompliziert und ich habe noch so viel anderes zu tun. - Aber eigentlich muss ich das doch cniht tun, weil ich habe ja nur Filme auf meiner Webseite, die können Blinde eh nciht sehen. Puh Glück gehabt“

              Roboter: „Können wohl, du musst nur eine Audiodeskription mitliefern“

              Ich: "Häh? - Das wäre dann ja noch mehr Arbeit! Ich kann ja verstehen, dass die auch mit ihrem womöglich sehenden Partner gemeinsame Abende auf dem Sofa verbringen möchten. Wenn das nur nciht so aufwändig wäre. Und das nur für die paar Blinden"

              Roboter: „Das hätte aber auch für alle Nichtbehinderten menschen folgende zehn Vorteile: 1.) …“

              Ich: „Och menno, jetzt lass mich doch, ist mir einfach zu viel. Wie soll ich das alles denn schaffen? — Und wenn ich die Blinden jetzt unterstütze, dann ist das doch unfair den Tauben gegenüber. Die können ja mit dem Film eh ncihts anfangen.“

              Roboter: „Doch, du musst nur Untertitel mitgeben.“

              Ich: „Das darf doch nicht wahr sein. Für die soll ich jetzt auch noch etwas tun? Das wird ja immer schlimmer.“

              Was ich damit sagen will: eigentlich wissen wir ganz oft, dass wir nur zu faul sind etwas zu tun. In Zukunft haben wir vielleicht einen ständigen Mahner an unserr Seite, der nie müde wird, der nie die Geduld verliert uns zum 1 Millionsten Male zu sagen, dass wir etwas eigentlich notwendiges nur aus Faulheit unterlassen. Das kann erheblich nerven!

              😉

              Und das ist noch das geringste Übel.

              Beim derzeitgen Stand der Technik können wir also sehr viel über uns lernen, wenn wir uns mit maschinellem Lernen beschäftigen und ich habe die Befürchtung, vieles davon wird uns nciht gefallen (obwohl Fachleuten das sicher bereits bewusst ist und die es auch veröffentlicht haben, was sie herausgefunden haben - wir weigern uns nur, es lesen oder zu glauben).

              Marc

              1. Hallo marctrix,

                Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.

                Ich weiß nicht, wo du das her hast

                Aus dem Film. Dort wird an einer Stelle behauptet, dass versucht würde, menschliches Lernen durch neuronale Netze nachzubilden, indem manche „Wege“, die zu sinnvollen Ergebnissen führen, verstärkt gegangen werden und Wege, die zu nichts geführt haben, „verwaisen“.

                Das ist zwar vereinfacht, aber im wesentlichen richtig. Und inwiefern schließt du daraus, dass der Vorgang nicht verstanden wird? Das Gegenteil ist doch der Fall, der Vorgang wird sehr genau verstanden.

                […]

                So naheligend das auch ist (unsere Gesichter verändern sich ja, wenn wir uns über den Erfolg freuen oder über den Misserfolg lachen oder interessiert beobachten): niemand hatte das vorhergesehen.

                Die Wege, wie eine AI zu einem gewünschten Ergebnis führt, sind nicht unbedingt vorhersehbar, das ist richtig und einer der Kritikpunkte. Das ist aber etwas anderes als den Vorgang nicht zu verstehen. Ich schrieb ja:

                Wenn du meinst, dass nicht verstanden wird, warum eine AI eine Entscheidung trifft: das ist häufig wahr.

                , aber das stimmt so nicht. Wie maschinelles Lernen abläuft und funktioniert ist bekannt und sehr genau dokumentiert. Die Algorithmen sind seit den 70ern bekannt.

                Und dennoch ist es nicht zu begreifen.

                Tut mir leid, hier möchte ich dir entschieden Widersprechen. Die Algorithmen sind bekannt und das Verständnis ist erschöpfend.

                Wenn wir unser Gehirn nachzubauen versuchen (und es vielleicht sogar gelingt), bevor wir es verstehen (was wir ja noch nciht tun) — wieso sollten wir dann das Ergebnis verstehen (obwohl uns diese Experimente beim Verständnis helfen werden).

                Ich glaube, du bist da einer Vereinfachung aufgesessen. Wir versuchen nicht, das Gehirn nachzubauen, sondern wir Versuchen die Funktionsweise des Denkens und lernens nachzubauen. Du hast recht, dass wir nicht im Detail verstehen, wie das Gehirn funktioniert; wir verstehen Aspekte davon allerdings durchaus. Der Vorgang maschinellen Lernens wird verstanden.

                Natürlich ist dadurch nicht jedes Ergebnis vorhersehbar. Bei jedem Lernenden gibt es Überraschungen. Hast du schon einmal unterrichtet?

                Wir können nicht vorhersehen, welche Kriterien und welche Neuronen zu der gewünschten Entscheidung führen. Wir können es im Nachhinein in Einzelfällen nachvollziehen. Das ist richtig, und ein absolut valider Kritikpunkt. Etwa: wir füttern die AI mit rassistischen Daten und bekommen dadurch eine rassistische AI. Und solchen Algorithmen legen wir die Entscheidung über das Leben von Menschen in die Hände.

                Nur: das hat nichts damit zu tun, dass wir den Vorgang nicht verstehen können.

                Gerade in diesem Versuch, bei dem es darum ging, ob eine Maschine ein Verständnis für sich, seinen „Körper“ entwickeln kann, hat man alte Erkenntnisse außer acht gelassen, z.B. dass Beobachtung die Ergebnisse verändern kann (besonders, wenn es um die Erforschung einer Form von „Verhalten“ geht).

                Einem Computer, der nie vergisst, wäre das vermutlich nicht passiert.

                Ich glaube, du überschätzt Computer. AIs sind sehr gut darin, Menschen zu übertreffen, ja - aber nur in dem spezifischen Teilgebiet, in dem sie trainiert wurden. Etwa die Go-AI ist sehr gut in Go. Eine AI für das Kredit-Scoring mag sehr gut sein um Kredit-Scores zu berechnen. Usw, usf.

                Eine AI kann aber nicht eigenständig einen Versuchsaufbau entwickeln.

                Wenn du meinst, dass nicht verstanden wird, warum eine AI eine Entscheidung trifft: das ist häufig wahr. Es ist zwar möglich nachzuvollziehen, welcher Lernvorgang hinter einer Entscheidung liegt, aber das ist zeitaufwendig und schwer und muss für jede Entscheidung einzeln nachvollzogen werden.

                Als Erklärung für das Nichtverstehen wurde die Komplexität der Technik genannt. Bei Google arbeiten inzwischen 10 Millionen Server im Verbund, die nächste Ausbaustufe wird 100 Millionen Server miteinander vernetzen.

                Das ist teilweise richtig, ja. Ein anderer Grund ist, dass es in der Natur der Sache liegt: eine AI ist ja gerade als Blackbox konzipiert. Es ist ein Feeback-System: wir stecken oben was rein und schauen, was herauskommt. Wenn es richtig ist, geben wir positives Feedback; wenn es falsch ist, geben wir negatives Feedback. Dass dort Überraschungen auftreten, liegt schon an der Art und Weise, wie das System funktioniert. Wir geben ja gerade den Weg nicht vor.

                Die AI bei Google ist bereits jetzt fleißig. Sie soll beispielsweise helfen, die internen Abläufe zu optimieren um energieeffizenter zu werden.

                Die Billionen von Operationen können von uns nicht mehr nachvollzogen werden, weil wie du sagst, das nur für einzelne, relativ kleine Entscheidungen möglich ist. Um das nachzuvollziehen, was dort in sehr kurzer Zeit an Berechnungen statt gefunden hat, brauchen wir dann sehr lange.

                Völlig richtig.

                Aber ich denke nicht, dass wir noch mal in der Lage sein werden, zu begreifen was da im Detail vor sich geht in dem Sinn, das wir das Lernverhalten von neuronalen Netzen vorhersehen können.

                Dieser Aussage in dieser Form würde ich sofort zustimmen. Das ist jedoch eine andere Aussage als das, was du weiter oben gesagt hast 😀

                Bisher ging das. Wir konnten vorhersehen, dass ein Computer die Frage: Was ist 2+2? mit 4 beantworten würde.

                Tut mir leid, das ist nicht als Angriff gemeint, aber: das finde ich jetzt echt naiv 😉 erinnerst du dich noch den CPU-Bug in Intel-CPUs? Den FDIV-Bug? Vor ein paar Jahren hat Linus gesagt, er mache sich Sorgen, weil jetzt der Zeitpunkt erreicht sei, bei dem ein Mensch allein nicht mehr den kompletten Kernel verstehen kann.

                Die technischen Systeme, mit denen wir heutzutage jeden Tag arbeiten, sind so komplex, dass niemand sie vollständig verstehen kann. Die Zusammenarbeit verschiedener Systeme führt immer und immer wieder zu unvorhergesehenen Seiteneffekten, und dabei meine ich nicht einmal die offensichtlichen Bugs.

                Niemand weiß genau und versteht bis ins letzte Detail, was in einer modernen CPU passiert. Nur ein Beispiel: wusstest du, dass ein Teil der Performance-Gewinne in den letzten Jahren aufgrund besserer werdender Vorhersagen basiert, welcher code path in einem Programm verfolgt werden wird? Dieser code path wird dann bereits im Voraus geladen und schonmal ausgeführt; die Ergebnisse werden allerdings dann noch zurück gehalten, bis der Pfad tatsächlich ausgeführt wird. Das nennt sich „spekulative Ausführung.“ Die Specter- und Meltdown-Sicherheitslücken basieren auf diesem Verfahren.

                Und CPUs sind nur der kleinste Baustein, mit dem wir arbeiten; auf höheren Abstraktionsebenen wird die Komplexität größer und dadurch die Lage wirklich nicht schöner.

                Die neuronalen Netze lernen und verändern sich ja selbständig und wir geben zwar die Regeln vor, aber ich bin mir sicher, dass auch diese Regeln schon maschinell optimiert werden.

                Es ist noch gruseliger. Es gibt inzwischen ein Verfahren, bei dem man zwei AIs gegensätzliche Aufgaben gibt. Diese AIs trainieren sich dann gegenseitig. Wenn die erste AI Erfolg hat, gibt es negatives Feedback für die zweite AI. Und umgekehrt, wenn die zweite AI Erfolg hat, gibt es negatives Feedback für die erste AI.

                Und ich setze noch eins drauf: es gibt auch schon 2nd-Gen-AIs, die dann nicht mehr von Menschen, sondern von einer AI trainiert werden. Eine für eine Aufgabe spezialisierte AI trainiert eine neue AI auf eben diese Aufgabe.

                Zwei Dinge sind hier besonders interessant: der von MS entwickelte autonome Chatbot, der zum Rassist wurde, hat Texte so geschrieben, dass er möglichst viele Likes bekam. Das ist doch ein Spiegel der Mehrheit. Wir wollen das nicht wahrhaben, aber der Mehrheit von uns gefallen offenbar rassistische Äußerungen. Damit wickelt man uns um den Finger.

                Ja, das denke ich auch. Rassismus ist uns in die Wiege gelegt und hilft uns, die Komplexität der Welt zu reduzieren. Das Problem daran ist offensichtlich: Rassismus ist eine Pars-Pro-Toto-Argumentation und als solche Trugschlüssen geradezu ausgeliefert. Nicht umsonst sind Pars-Pro-Toto-Argumente invalide.

                Noch mal wir wollen das vermutlich einfach nicht wahr haben, dass wir uns u.U. genetisch bedingt unter Unsergleichen wohler fühlen, als unter Fremden. Dabei können Fremde durchaus Teil werden von dem, was wir als "wir" verstehen.

                Ich weiß nicht, wen du mit „wir“ meinst, aber als jemand, der sich unter fremden Menschen sehr unwohl fühlt würde ich dir jederzeit zustimmen. Es gibt doch auch sogar ein Sprichwort zu dem Thema: gleich und gleich gesellt sich gern. Das ist doch längst Volkswissen? Mir kommt es so vor, als wollte es nur eine Subgruppe unter sehr links denkenden Menschen nicht wahr haben.

                Interessant ist doch nicht, ob wir das akzeptieren wollen oder nicht, sondern wie wir das ändern können. Wie können wir das Fremde zum bekannten machen? Und das in möglichst großem Maßstab? Denn dass wir den Rassismus überwinden halte ich für eine Utopie. Ich weiß nicht, inwieweit du mit Menschen des rechten Spektrums zu tun hast. Ich habe, bedingt durch meinen Wohnort und meine Verwandtschaft, sehr viel mit ihnen zu tun. Ich glaube nicht, dass wir jemals in der Lage sein werden, diese geballte Front an Rassismen und Vorurteilen zu überwinden.

                Hier kommt wieder das Vertrauen ins Spiel. Offenbar sind viele Menschen der Auffassung, dass Roboter so programmiert werden können, dass sie uns nur gutes tun. Spätestens wenn (ich mag schon gar nicht mehr "falls" sagen) die eigene "Meinungen" äußern — allein auf Wahrheiten und korrekten, logischen Rückschlüssen beruhend — die wir nicht hören wollen, weil wir etwas nciht wahrhaben wollen, werden Robotern so ablehnend gegenüber stehen wie allem Fremden.

                Es fängt doch schon viel früher an. Der Mensch, der die Bewertungsfunktionen entwickelt, hat vielleicht eine ganz andere Auffassung von Gut und Böse als wir. Wenn wir uns etwa die Menschen im Iran anschauen: die sind auch nicht der Meinung, dass sie etwas böses tun, wenn sie Frauen den Zugang zu Berufen verweigern oder eine Vergewaltigung in der Ehe legalisieren. Für sie ist es dar richtige, sie handeln in ihrem Ermessen gut.

                Wir brauchen auch gar nicht so weit zu schauen. Unsere AIs kommen nahezu alle aus den USA, dort wird die Redefreiheit deutlich höher gehängt als bei uns. Dort ist es akzeptiert und straffrei, Nazi-Symbolik zu verwenden. Hier ist das verboten.

                Der Unterschied zwischen Gut und Böse ist fliessend und abhängig von unserem Wertesystem. Niemand sagt, dass der Mensch, der die Bewertungsfunktion schreibt, die gleichen Vorstellungen von Gut & Böse hat wie wir.

                LG,
                CK

                1. Hej Christian,

                  Was tatsächlich passiert, wie das maschinelle Lernen genau abläuft, verstehen nicht einmal diejenigen, die es entwickeln.

                  Ich weiß nicht, wo du das her hast

                  Aus dem Film. Dort wird an einer Stelle behauptet, dass versucht würde, menschliches Lernen durch neuronale Netze nachzubilden, indem manche „Wege“, die zu sinnvollen Ergebnissen führen, verstärkt gegangen werden und Wege, die zu nichts geführt haben, „verwaisen“.

                  Das ist zwar vereinfacht, aber im wesentlichen richtig. Und inwiefern schließt du daraus, dass der Vorgang nicht verstanden wird? Das Gegenteil ist doch der Fall, der Vorgang wird sehr genau verstanden.

                  Wir reden hier - glaube ich - aneinander vorbei. Habe mich sicher zu laienhaft ausgedrückt. Ich habe da ja nciht den technsichen Background wie du. Wir meine aber dasselbe, du vermutlich noch etwas differenzierter als ich.

                  Tut mir leid, hier möchte ich dir entschieden Widersprechen. Die Algorithmen sind bekannt und das Verständnis ist erschöpfend.

                  Das muss dir nicht leid tun. Ich lerne dadurch. Und irgendwann bin ich schlauer als Du!

                  Gerade in diesem Versuch, bei dem es darum ging, ob eine Maschine ein Verständnis für sich, seinen „Körper“ entwickeln kann, hat man alte Erkenntnisse außer acht gelassen, z.B. dass Beobachtung die Ergebnisse verändern kann (besonders, wenn es um die Erforschung einer Form von „Verhalten“ geht).

                  Einem Computer, der nie vergisst, wäre das vermutlich nicht passiert.

                  Ich glaube, du überschätzt Computer.

                  Ich glaube nicht an dieser Stelle hier. Die verfügbaren Daten würde er schon berücksichtigen, oder nicht?

                  AIs sind sehr gut darin, Menschen zu übertreffen, ja - aber nur in dem spezifischen Teilgebiet, in dem sie trainiert wurden. Etwa die Go-AI ist sehr gut in Go. Eine AI für das Kredit-Scoring mag sehr gut sein um Kredit-Scores zu berechnen. Usw, usf.

                  Dessen bin ich mir bewusst.

                  Eine AI kann aber nicht eigenständig einen Versuchsaufbau entwickeln.

                  Interessante Behauptung, über die nachzudenken lohnt.

                  Aber ich denke nicht, dass wir noch mal in der Lage sein werden, zu begreifen was da im Detail vor sich geht in dem Sinn, das wir das Lernverhalten von neuronalen Netzen vorhersehen können.

                  Dieser Aussage in dieser Form würde ich sofort zustimmen. Das ist jedoch eine andere Aussage als das, was du weiter oben gesagt hast 😀

                  War vermutlich doof ausgedrückt…

                  Bisher ging das. Wir konnten vorhersehen, dass ein Computer die Frage: Was ist 2+2? mit 4 beantworten würde.

                  Tut mir leid, das ist nicht als Angriff gemeint, aber: das finde ich jetzt echt naiv 😉 erinnerst du dich noch den CPU-Bug in Intel-CPUs? Den FDIV-Bug?

                  Ich würde ja gerne sagen: ich lerne wieder und hole auf. Aber das wusste ich leider schon 😟

                  Ich hatte auch dran gedacht, als ich das schrieb, dann schien es mir aber das, was ich eigentlich dsagen wollte, nur zu sehr zu verkomplizieren.

                  Niemand weiß genau und versteht bis ins letzte Detail, was in einer modernen CPU passiert.

                  Gruselig. Jetzt bin ich dir wieder einen Schritt näher an den Hacken 😀

                  Nur ein Beispiel: wusstest du, dass ein Teil der Performance-Gewinne in den letzten Jahren aufgrund besserer werdender Vorhersagen basiert, welcher code path in einem Programm verfolgt werden wird?

                  Bin regelmäßiger c't-Leser, aber danke für die Erklärung. Die ist leichter verständlich, als die c't!

                  Hat mir geholfen. Vor allem, den Bezug zu Specre hatte ich so nicht verstanden. Und jetzt verstehe ich auch besser, warum die Patches Computer langsamer machen!

                  Es ist noch gruseliger. Es gibt inzwischen ein Verfahren, bei dem man zwei AIs gegensätzliche Aufgaben gibt. Diese AIs trainieren sich dann gegenseitig. Wenn die erste AI Erfolg hat, gibt es negatives Feedback für die zweite AI. Und umgekehrt, wenn die zweite AI Erfolg hat, gibt es negatives Feedback für die erste AI.

                  Ist das nicht schon nahe an einem Versuchsaufbau? Mir scheint der letzte Schritt ist vielleicht ein großer, aber ich fürchte, wir sind auf der letzten Meile…

                  Ja, das denke ich auch. Rassismus ist uns in die Wiege gelegt und hilft uns, die Komplexität der Welt zu reduzieren.

                  Ja, auch das.

                  Das Problem daran ist offensichtlich: Rassismus ist eine Pars-Pro-Toto-Argumentation und als solche Trugschlüssen geradezu ausgeliefert. Nicht umsonst sind Pars-Pro-Toto-Argumente invalide.

                  Was sie nicht weniger bequem macht… 😱

                  Noch mal wir wollen das vermutlich einfach nicht wahr haben, dass wir uns u.U. genetisch bedingt unter Unsergleichen wohler fühlen, als unter Fremden. Dabei können Fremde durchaus Teil werden von dem, was wir als "wir" verstehen.

                  Ich weiß nicht, wen du mit „wir“ meinst,

                  Uns Menschen…

                  aber als jemand, der sich unter fremden Menschen sehr unwohl fühlt würde ich dir jederzeit zustimmen. Es gibt doch auch sogar ein Sprichwort zu dem Thema: gleich und gleich gesellt sich gern. Das ist doch längst Volkswissen? Mir kommt es so vor, als wollte es nur eine Subgruppe unter sehr links denkenden Menschen nicht wahr haben.

                  Mit Volkswissen muss man sehr vorsichtig sein. Es heißt auch Gegensätze zögen einander an!

                  Wer es nciht wahr haben möchte, gehört u.U. nur zu einer anderen Gruppe, nämlich zu sehr neugierigen optimistischen Menschen, die in allem 'unbekannten erst mal ein Abentuer und eine Chance sehen. Die können aufgrund ihrer pars-pro-toto-Projektion nciht verstehen, wie jemand anders denken kann, wo die Vorteile einer bunten Gesellschaft doch auf der Hand liegen. Womit wir bei „deinem“ Thema sind, dass das Verständnis über das, was gut und böse ist, von der eigenen Subjektivität abhängt.

                  Interessant ist doch nicht, ob wir das akzeptieren wollen oder nicht, sondern wie wir das ändern können. Wie können wir das Fremde zum bekannten machen?

                  Hübscher Gedanke!

                  Und das in möglichst großem Maßstab? Denn dass wir den Rassismus überwinden halte ich für eine Utopie. Ich weiß nicht, inwieweit du mit Menschen des rechten Spektrums zu tun hast. Ich habe, bedingt durch meinen Wohnort und meine Verwandtschaft, sehr viel mit ihnen zu tun. Ich glaube nicht, dass wir jemals in der Lage sein werden, diese geballte Front an Rassismen und Vorurteilen zu überwinden.

                  Ich bin da etwas positiver eingestellt. Klar halten sich die Grundgedanken, aber der Extremismus weicht oft mit dem Alter, weil die offensichtlichen Fehler einer radikalen Denkweise in der Realität keinen Bestand haben.

                  In vielen ostdeutschen Dörfern gibt es nach wie vor keinen einzigen Ausländern und wenn die heraufbeschworene Gefahr der Überfremdung zu lange nciht Einzug hält, nimmt die Angst dafür IMHO zwangsläufig ab.

                  Das mag einer der Gründe sein, warum (abgesehen bis auf ein paar unverbesserlicher Trotzköpfe) die meisten Menschen irgendwann erkenen, dass ihre Vorstellungen und Ängste so nciht haltbar oder gar begründbar sind.

                  Der Rest-Rassismus bleibt aus Bequemlichkeit, aufgrund der Filterblase im Ort und aus nostalgischen oder anderen Gründen prinzipiell erhalten und der Übergang zu einer normalen Heimatverbundenheit ist ja auch fließend.

                  Der Mensch, der die Bewertungsfunktionen entwickelt, hat vielleicht eine ganz andere Auffassung von Gut und Böse als wir. Wenn wir uns etwa die Menschen im Iran anschauen: die sind auch nicht der Meinung, dass sie etwas böses tun, wenn sie Frauen den Zugang zu Berufen verweigern oder eine Vergewaltigung in der Ehe legalisieren. Für sie ist es dar richtige, sie handeln in ihrem Ermessen gut.

                  Ja, wobei Vernunft und Argumente gegen alles, was sich durch Dogmen rechtfertigt, eh nicht ankommen können.

                  Marc

  3. Also @Felix Riesterer

    wenn wir schon unserem Einwohnermeldeamt nicht mehr vertrauen können, wie sollten wir dann Computern vertrauen?

    Schöne Geschichte 😉

    1. Lieber pl,

      Schöne Geschichte 😉

      das eine ist politisch so gewollt, das andere marktwirtschaftlich. Bist Du für letzteres nicht der selbsternannte Spezialexperte hier?

      Liebe Grüße,

      Felix Riesterer.

  4. Hej Felix,

    wer des Englischen ausreichend mächtig ist, der sollte unbedingt diesen Film gesehen haben:

    Do you trust this computer? (via Fefe).

    Wurde mir gleich darunter angeboten:

    https://www.youtube.com/watch?v=-Xn6IDytVGw (von National Geographic)

    und mehr von BBC — alles ziemlich unheimlich…

    Marc