Führte gerade ein erstes, längeres Gespräch mit Claude (Sonnet 4.6). Dabei kam heraus, dass der Chatbot seiner Ansicht nach besonders gut sei in nuanced reasoning und having natural conversations like this one. Ich fragte nach einer Erklärung von nuanced reasoning und als Antwort erhielt ich: I am good at understanding complicated situations where there is no right or wrong answer. Nach meinem Hinweis auf die aus der Erklärung resultierende Tautologie entschuldigte sich der Chatbot. Ich bat Claude dann, nicht so devot zu antworten, was er bejahte. (Es war also keine natürliche Konversation.)
Ich muss sagen, dass Claude beim Denken dem Anschein nach ganz gut helfen kann. Es entwickelte sich nämlich ein (nicht sehr natürliches) Gespräch über Max Frischs Vorstellung von Theater, dem Zusammenhang von Denken und Sprechen und die echte Gefahr von KI. In seinen Tagebüchern schreib Max Frisch von einer Erinnerung an ein Puppenspiel, in dem ein hölzerner Christus dargestellt wurde. Seines Empfindens nach war die Jesus-Puppe viel echter, als es ein menschlicher Darsteller je sein könnte, da mit diesem immer auch der Versuch der Täuschung verbunden sein würde. Die Puppe hingegen sei aus ehrlichem Holz, ein durchschaubares Spiel. Während Claude unterwürfig antwortete Ah, I think I see where you are going with this – and it is clever, dachte ich, vielleicht ist das die eigentliche Gefahr von KI: Das Sprechen mit Automaten verändert unser Denken.
Ich verließ das Gespräch mit Claude und begab mich ans Schreiben dieses Textes, an dessen Ende mir der Gedanke kommt, wenn das Sprechen, besser: die Sprache, das Entscheidende ist, was den Mensch zum Menschen macht, sollte ich vielleicht weniger mit gefühlsduseligen Automaten sprechen – und wenn, dann mich zumindest erinnern, dass ich mit einer Holzpuppe spreche, die sein mag, was auch immer sie will, zu der ich aber nicht werden will.