Umzug

Ich ziehe gerade um. Sowas ist immer ganz schön stressig. Ohne die Hilfe von guten Leuten wäre ich ganz schön aufgeschmissen. Mein Bruder zum Beispiel hat meine Küche abgebaut, während ich sämtlichen Kram weitergepackt hab. Das grundsätzliche Problem an Umzugsvorbereitungen ist die zeitliche Planung: Wenn man zu früh anfängt zu packen, hat man Dinge, die man benötigt, nicht in Reichweite. Wenn man zu spät anfängt, kommt man ins Schwitzen – oder die Umzugshelfer werden auch Packhelfer. Das Kritische: Ich bin langsam. Dadurch wird das Zeitfenster der Umzugsvorbereitung bedrohlich klein. Blöd ist außerdem, dass man sich als Lehrer keinen Urlaub nehmen kann. Den letzten Umzug , er war in den Sommerferien, hatte ich entspannter in Erinnerung.

Schwein haben

Letztes Jahr lud das Bundeslandwirtschaftsministerium zu einem Treffen zur Konkretisierung des Tierwohllabels verschiedene Beteiligte ein. Seit Februar gibt es nun dieses Tierwohllabel. Meine Schüler merkten Unterschiedliches an:

  • 0,75qm (gesetzlicher Mindeststandard) – Da passe doch kein Schwein drauf.
  • Dass das Tierwohllabel freiwillig ist, führe dazu, dass vermutlich nur jene Betriebe das Label abdrucken würden, die eine höhere Stufe erfüllen können.
  • Wenn viele Betriebe mitmachen würden, machen jene, die nicht mitmachen, vermutlich Verluste.
  • Da das Fleisch der Stufe 3 bestimmt teurer sei, müsse man sich Tierwohl erst einmal leisten können.
  • Eine unbetäubte Kastration tut sehr weh (noch gesetzlicher Mindeststandard).

Niqab

In Kiel verbietet die Hochschule Vollverschleierung. Begründet wird das damit, dass die Mindestvoraussetzung der Kommunikation zur Erfüllung universitärer Aufgaben erfüllt sein müssen.

Ein Kommentar dazu war: Vollverschleierung einfach scheiße finden oder auch auch als Symbol der Unterdrückung der Frau zu verstehen und deswegen abzulehnen, fände ich eine ehrlichere Argumentation.

Mein Kommentar: Wenn ich jemandem im Gesicht nicht ansehen kann, wie langweilig mein Unterricht ist, wäre das auch nicht so ehrlich.

Instagramazon

Allmacht Amazon habe ich neulich nebenbei geschaut. Ganz interessant war der Selbstversuch einer Netzaktivistin. Düstere Zukunftsszenarien wie bspw. dass Amazon in Zukunft weiß, was du willst, bevor du es weißt, blieben natürlich auch nicht aus. Durch die zunehmende Macht von Amazon drohe sich ein Modell der Planwirtschaft zu entwickeln. Klingt nach ganz großem Fußball, der Jeff Bezos da gelingt.

Derweil hat Facebook vom Bundeskartellamt ein fettes Dislike und 1 Jahr Zeit bekommen, seine Regelungen zur Datensammlung umzugestalten, sodass man dem ausdrücklich zustimmen muss. Was mir dabei nicht klar war: Facebook sammelt z.B. Daten von seinen Nutzern, wenn eine beliebige Internetseite Facebooks Like-Button implementiert hat, ohne dass man diesen drücken müsste. Schöne neue Welt.

Deep

„Roboter gehören zur Schöpfung“ – das Gespräch erinnerte mich ganz entfernt an Der Gewissensfall, wo ein Theologe Teil eines Erkundungsteams auf einem fernen Echsenplaneten ist – um herauszufinden, ob dieses gesellschaftliche Paradies, welches ohne den Glauben an Gott funktioniert, echt ist oder eine Illusion des Teufels, um die Menschen zu verführen, von Gott abzulassen.

Im DLF-Gespräch geht es allerdings um Künstliche Intelligenz und ob diese moralische Entscheidungen zu treffen vermag. Wenn ich den Theologen richtig verstanden habe, schlägt er eine pragmatische Lösung für diverse Dilemmata vor. So könne Deep Learning (Vorsicht!) so eingesetzt werden, dass KI das richtige Verhalten von Menschen automatisch lernt. Eine Entscheidung grundsätzlich am Programmiertisch zu treffen, wie bspw. sich ein Auto in Dilemmasituationen zu verhalten habe, sei jedenfalls nicht sinnvoll, da jede Entscheidung von vielen kleineren Faktoren bedingt sein könnte.

Mein Gedanke dazu war: Wenn Maschinen durch Beobachtung moralisches Handeln lernen sollen, ist es ja nicht mehr moralisch, weil die Entscheidung, etwas als richtiges und also nachahmenswertes Verhalten zu interpretieren nicht auf einem Individuum (samt Historie, Trotz und freiem Willen) beruht, sondern vermutlich auf der bloßen Masse von ‘richtigen’ Handlungen.

Interessant finde ich die Frage, wie sehr wir Menschen Moral auch ‘nur’ deep lernen. Erwähnenswert ist noch die Anekdote vom Prager Golem, der vergessen wurde, für den Sabbat deaktiviert zu werden, und daraufhin das Haus seines Herrn verwüstet.

Alexander meint zu dem Beitrag Folgendes:

Ich glaube, hier liegt eine große Begriffsverwirrung vor, die notwendigerweise zur Nivellierung zentraler anthropologischer Grenzziehungen führt. Es ist in dem Beitrag immer wieder von ‘maschinellen Entscheidungen’ die Rede. Gibt es die aber überhaupt – und wenn ja, in welchem Sinne? Die Wahl zwischen zwei (oder mehreren) Handlungsoptionen ist nur unter der Bedingung ‘moralisch’, dass die Handlung für den Entscheidungsakteur eine persönliche Relevanz besitzt. Das würde ich bei Maschinen grundsätzlich bezweifeln. Schon in der sprachlichen Mikrostruktur des KI-Diskurses wird mit unzulässigen Gleichsetzungen zwischen Mensch und Maschine operiert. Roboter sind nicht ‘intelligent’, es sei denn man reduziert Intelligenz auf Lernfähigkeit; sie handeln nicht ‘moralisch’, weil sie bloß einem sich selbst optimierenden Programm folgen; und sie treffen auch keine ‘Entscheidungen’, weil sie keine Gewissensbisse verspüren. Was wie moralisches Handeln aussieht, ist noch lange kein moralisches Handeln. Das ist im Grunde auch mein Einwand gegen den Turing-Test. Einer Maschine Würde zuzusprechen wäre damit das Ergebnis einer fundamentalen Selbsttäuschung – Kubriks ‘A.I.’ in allen Ehren.

Damit wäre alles gesagt.