Zum Inhalt springen →

Deep

„Roboter gehören zur Schöpfung“ – das Gespräch erinnerte mich ganz entfernt an Der Gewissensfall, wo ein Theologe Teil eines Erkundungsteams auf einem fernen Echsenplaneten ist – um herauszufinden, ob dieses gesellschaftliche Paradies, welches ohne den Glauben an Gott funktioniert, echt ist oder eine Illusion des Teufels, um die Menschen zu verführen, von Gott abzulassen.

Im DLF-Gespräch geht es allerdings um Künstliche Intelligenz und ob diese moralische Entscheidungen zu treffen vermag. Wenn ich den Theologen richtig verstanden habe, schlägt er eine pragmatische Lösung für diverse Dilemmata vor. So könne Deep Learning (Vorsicht!) so eingesetzt werden, dass KI das richtige Verhalten von Menschen automatisch lernt. Eine Entscheidung grundsätzlich am Programmiertisch zu treffen, wie bspw. sich ein Auto in Dilemmasituationen zu verhalten habe, sei jedenfalls nicht sinnvoll, da jede Entscheidung von vielen kleineren Faktoren bedingt sein könnte.

Mein Gedanke dazu war: Wenn Maschinen durch Beobachtung moralisches Handeln lernen sollen, ist es ja nicht mehr moralisch, weil die Entscheidung, etwas als richtiges und also nachahmenswertes Verhalten zu interpretieren nicht auf einem Individuum (samt Historie, Trotz und freiem Willen) beruht, sondern vermutlich auf der bloßen Masse von ‚richtigen‘ Handlungen.

Interessant finde ich die Frage, wie sehr wir Menschen Moral auch ’nur‘ deep lernen. Erwähnenswert ist noch die Anekdote vom Prager Golem, der vergessen wurde, für den Sabbat deaktiviert zu werden, und daraufhin das Haus seines Herrn verwüstet.

Alexander meint zu dem Beitrag Folgendes:

Ich glaube, hier liegt eine große Begriffsverwirrung vor, die notwendigerweise zur Nivellierung zentraler anthropologischer Grenzziehungen führt. Es ist in dem Beitrag immer wieder von ‚maschinellen Entscheidungen‘ die Rede. Gibt es die aber überhaupt – und wenn ja, in welchem Sinne? Die Wahl zwischen zwei (oder mehreren) Handlungsoptionen ist nur unter der Bedingung ‚moralisch‘, dass die Handlung für den Entscheidungsakteur eine persönliche Relevanz besitzt. Das würde ich bei Maschinen grundsätzlich bezweifeln. Schon in der sprachlichen Mikrostruktur des KI-Diskurses wird mit unzulässigen Gleichsetzungen zwischen Mensch und Maschine operiert. Roboter sind nicht ‚intelligent‘, es sei denn man reduziert Intelligenz auf Lernfähigkeit; sie handeln nicht ‚moralisch‘, weil sie bloß einem sich selbst optimierenden Programm folgen; und sie treffen auch keine ‚Entscheidungen‘, weil sie keine Gewissensbisse verspüren. Was wie moralisches Handeln aussieht, ist noch lange kein moralisches Handeln. Das ist im Grunde auch mein Einwand gegen den Turing-Test. Einer Maschine Würde zuzusprechen wäre damit das Ergebnis einer fundamentalen Selbsttäuschung – Kubriks ‚A.I.‘ in allen Ehren.

Damit wäre alles gesagt.