Felix Riesterer: Filmtipp: Do you trust this computer?

Beitrag lesen

Lieber Rolf,

Was ist „Intelligenz“?

mal sehen was die Wikipedia darüber so sagt:

Intelligenz (von lateinisch intellegere „verstehen“, wörtlich „wählen zwischen …“ von lat. inter „zwischen“ und legere „lesen, wählen“) ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit des Menschen. Da einzelne kognitive Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition der Intelligenz. Vielmehr schlagen die verschiedenen Intelligenztheorien unterschiedliche Operationalisierungen des alltagssprachlichen Begriffs vor. [Quelle: Wikipedia]

Ja, der Begriff lässt sich kaum zielgenau fassen.

Der Begriff ist nicht scharf definiert. Ist es Lernfähigkeit? Die Fähigkeit, logische Schlussfolgerungen aus vorgegebenen Fakten zu ziehen? Die Fähigkeit, aus einem Wust an unscharfen Fakten die relevanten zu selektieren und daraus Erkenntnisse zu gewinnen oder gestellte Probleme zu lösen?

Sicherlich müsste man das alles mit "ja, auch" beantworten. In der Summe entsteht eine Software, die unter Zuhilfenahme von Sensoren in der Lage ist, auf ihre "Umgebung" kontextgerecht(!) zu reagieren, um gemäß ihrer Handlungsmaxime (wie auch immer diese tatsächlich aussehen mag) zielführend zu handeln.

Was sind „bad parts“ einer Intelligenz?

Damit sind sicherlich diejenigen gemeint, die der menschlichen Zivilisation/Bevölkerung schaden können und wahrscheinlich auch würden/werden.

Die Frage sollte sich auf „bad parts“ menschlichen Verhaltens richten, die entstehen, wenn Intelligenz zu kaltem Kalkül entartet und nicht mehr von Emphatie oder einfach Weisheit begleitet ist.

Muss es denn unbedingt "„bad parts“ [des] menschlichen Verhaltens" sein? Genügt nicht eine im Ergebnis für Menschen im Zweifelsfalle schädliche Verhaltensweise?

Wenn zum "Kann ich das tun?" nicht mehr gefragt wird "Sollte ich das tun?".

Eben! Eine sich selbst ausbildende Software, die anhand ihrer Sensorik und maschinellen Lernens die Fähigkeit erlangt hat, auf ihre Umwelt zu reagieren, wird die ihr gegebene Zielsetzung zu verwirklichen suchen. Ob sie dabei ethische, empathische oder sonstige Kriterien anlegt, vermag im Film niemand zu sagen oder gar zu garantieren. Und genau das ist ja das Dilemma vor dem Hintergrund, dass die Entwicklung von künstlicher Intelligenz unaufhaltsam (aufgrund monetärer Interessen) vorangetrieben wird.

D.h. je weiter man die Selbstständigkeit von wissensverarbeitenden Geräten treibt, um so mehr muss man auch an eine Art von "Maschinen-Ethik" denken.

Das ist ein springender Punkt. Eine Kernaussage des Films ist ja gerade, dass dieser Aspekt von vornherein im Mittelpunkt stehen sollte, aber aus $Gründen (zumeist wahrscheinlich Kostengründen) hintenan stehen muss. Im Film, meine ich mich zu erinnern, wird eine Parallele zur Softwaresicherheit gezogen, die auch nicht "einfach so" im Anschluss "draufgeklatscht" werden kann, vor allem deshalb nicht, da niemand die tatsächliche Funktionsweise von künstlichen Intelligenzen verstehen kann.

Irgendwann kommt man dann hoffentlich bei Asimovs Robotergesetzen heraus. Und wie bei uns Menschen ist das für den Computer der schwierigere Teil.

Momentan scheint sie sogar ein völlig unlösbarer Teil zu sein, der die ganze Sache potenziell sehr gefährlich macht. Vor allem wenn man in Betracht zieht, wie stark unsere Welt bereits vernetzt ist, und welche Menge an Daten mit dieser Vernetzung einhergeht.

Was mir als Zuschauer am Anfang großen Spaß gemacht hat, waren die vielen Anspielungen auf (und Einspielungen von) Sci-Fi-Filmen, die diese Thematik bereits deutlich illustriert haben. Jedoch scheint die große Masse der digitalen Nutzer die große Übereinstimmung von unserer Wirklichkeit mit diesen Fiktionen weder zu sehen noch sehen zu wollen.

Dazu kommt eine Art offensichtlich automatischer Anpassung der menschlichen Ethik, wenn neue Waffensysteme Auseinandersetzungen der diversen Kräfte dieser Welt verändern. Im Film werden Parallelen zur Atombombe gezogen. Aus der Sicht einer Zeit vor der Existenz von Nuklearwaffen wären solche Waffen sofort zu ächten gewesen. Kaum waren sie da, war das Haben und Herstellen solcher Waffen plötzlich "in Ordnung". Die Menschheit hat ihre ethischen Maßstäbe einfach angepasst, um mit diesen Waffen zu leben, denn wie soll man sie wieder aus der Welt schaffen, wenn zu große Interessen ihre Existenz behalten wollen?

Die künstliche Intelligenz ermöglicht autonome Waffensysteme. Sie kann prinzipiell nicht nur ein Auto selbst lenken, sie kann auch einen Menschen erkennen und selbst entscheiden, ob seine Tötung ihrer Zielvorgabe entspricht oder deren Erreichen fördert. Und sobald diese autonomen Waffen einmal erfolgreich getestet wurden (siehe Atombombe im 2. Weltkrieg) werden auch diese Waffen die Menschheit dazu bringen, ihre Ethik anzupassen, anstatt dass man sie verhindert. Denn anders als die Atombombe, sind diese Waffen "intelligent" und können autonom auf ihre Umwelt reagieren. Sie sind ja datenverarbeitende Systeme und können daher prinzipiell gehackt werden. Sicherlich werden die einen Systeme in Zukunft versuchen, die anderen zu hacken, um sie so zu kontrollieren. In dem Moment sind wir als Menschheit nur noch Zuschauer eines Spiels, das den automatisierten Börsenhandel wie Kinderspielerei aussehen lassen wird. Und wenn dann eine Masse aus zusammen arbeitenden künstlichen Intelligenzen das Spiel für sich entscheiden haben sollten, sind wir von der Idee eines Skynet aus den Terminator-Filmen nicht mehr weit weg.

Was kann denn sprichwörtlich morgen schon Realität werden? Die Zeitdauern, die eine Entwicklung solcherlei Technik laut Fachleuten bräuchte, wurde von der Wirklichkeit bisher jedesmal stark nach unten korrigiert.

Und das alles stimmt mich doch sehr nachdenklich.

Liebe Grüße,

Felix Riesterer.