Eulenfisch - Limburger Magazin für Religion und Bildung

Lukas Brand: Künstliche Tugend

Lukas Brand sieht die Entwicklung von Robotern kommen, denen man beibringen müsste, selbstständig ethische Urteile auf einem menschenähnlichen Niveau zu fällen. Das ist die Aufgabe einer Maschinenethik, die man jetzt entwickeln müsse, um nicht Gestaltungsprozesse zu versäumen. Maschinenethik ist in der Sicht Brands etwas anderes als Ingenieursethik, durch welche der Entwickler von Automaten eine ethische Sensibilität ins Programm der ablaufenden Aktionen hineinschreibt; so erkennt beispielsweise ein automatischer Rasenmäher durch seine Sensoren spielende Kinder und weicht ihnen aus, um sie nicht zu verletzen. Wieder etwas anderes ist die Technikethik, die Entscheidungen des Menschen betrifft, dessen Handlungsspielraum durch Technik erweitert ist; das trifft beispielsweise zu, wenn jemand, der eine Waffe aus der Ferne lenkt, einen Schuss unterlässt, solange er die Tötung von Zivilisten nicht ausschließen kann.

Das Problem einer Maschinenethik entsteht, weil das Verhalten künstlicher Intelligenz, die technisch in neuronalen Netzwerken verwirklicht wird, vom Programmierer nicht mehr vollständig vorherbestimmt wird. Das beruht auf einer Programmierstrategie, die als deep learning bezeichnet wird. Dabei „lernt“ die Maschine nicht mehr anhand vorgegebener Pfade, etwa wenn ein Nutzer die Schaltflächen seines Rechners an seine Bedürfnisse anpassen kann, sondern die Maschine „lernt“ auf einem nicht vorherbestimmten Weg, und zwar dadurch, dass sie eine Rückmeldung bekommt, wenn sie besser geworden ist. So lernen Maschinen heutzutage, Sprachbefehle oder Gesichter richtig zu erkennen oder Sätze aus einer Sprache in eine andere richtig zu übersetzen. Der Touringtest formuliert die Frage, ob man eine Maschine erzeugen kann, deren Verhalten von dem eines Menschen nicht mehr unterschieden werden kann. Dabei geht es nicht um einen künstlichen Menschen, denn die Leib-Geist-Einheit, die einen Menschen ausmacht, kann eine Maschine nicht sein. Es sind deshalb simulierte Emotionen, simuliertes Verstehen, was die Maschine zeigt; das allerdings kann sie so perfekt, dass wir ihr Verhalten von dem eines Menschen nicht unterscheiden können.

Unter dieser Vorgabe prüft der Verfasser, ob eine künstlich intelligente Maschine eigenständig ethische Entscheidungen treffen könne. Dazu würde es nicht ausreichen, den hedonistischen Kalkül des Utilitarismus – der nach dem Verhalten sucht, das die Lust der meisten Betroffenen vermehrt und Schmerz vermeidet – von einer Maschine ausrechnen zu lassen oder den kategorischen Imperativ als Algorithmus zu formalisieren. Denn selbst wenn die Maschine über eine Theorie verfügt, ethisch relevante Situationen zu erkennen und richtige Schlüsse über diese Situation aus einem ethischen Modell abzuleiten, ergibt sich daraus noch nicht, dass die Maschine auch Handlungsoptionen erkennen und aus ihnen auswählen kann.

Brand greift auf Aristoteles zurück, der die Tugend, insbesondere die der Klugheit, als Frucht eines Erfahrungslernens begreift. In diesem Sinn könnte man Tugend dadurch imitieren, dass die Maschine im Sinne eines deep learning moralisch relevanten Situationen ausgesetzt und ihr rückgemeldet wird, ob sie sich darin als tugendhafte Maschine bewährt hat. Als Problem bemerkt der Verfasser, dass in unterschiedlichen kulturellen Kontexten ganz andere Trainingsaufgaben für relevant gehalten werden und andere ethische Bewertungen für richtig. Daraus folgt, dass ethische Entscheidungen soweit irgend möglich beim Menschen verbleiben sollten. Doch wo es zu schmutzig, zu ekelhaft und zu gefährlich ist, einen Menschen hinzuschicken, da könnte man auch Automaten die Aufgabe übertragen, ethisch relevante Entscheidungen in einer unvorhergesehenen Situation autonom zu treffen. Ein Beispiel wäre ein autonomes Fahrzeug, dass in einem Kriegs- oder Katastrophengebiet entscheiden müsste, zu welchen Verletzten es zuerst hinfährt, um dringend benötigte medizinische Hilfsmittel zu bringen.

„Künstliche Tugend“ greift ein interessantes und relevantes Problem auf, keine Frage, aber das Buch ist übereilt gearbeitet. Das Brexit-Referendum am 23. Juni 2016 lag vor der Wahl Donald Trumps zum US-Präsidenten am 8. November 2016. Brand stellt es so dar, als sei die US-Wahl zuerst von Cambridge Analytica manipuliert worden und der Brexit erst danach. Solche sachlichen Fehler und solche in Orthografie, Zeichensetzung und Grammatik beeinträchtigen das Lesevergnügen. Brand hätte sich außerdem Rechenschaft darüber ablegen müssen, für wen das Buch gedacht ist, was man dieser Zielgruppe erklären muss und welches Wissen die Klientel schon hat. Er hätte seiner Gliederung treu bleiben und mit den Wertungen warten sollen, bis die Grundlagen dazu erarbeitet sind, anstatt sie bereits im den Definitionen gewidmeten Kapitel vorab zu bringen.

Fazit: Lukas Brand hat interessante Ideen zu einem aktuellen und relevanten Thema, aber es wäre mehr drin gewesen.

Roboter als moralische Akteure
Regensburg: Friedrich Pustet Verlag. 2018
152 Seiten
16,95 €
ISBN 978-3-7917-3016-5

Zurück