© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
K. Mainzer (Hrsg.)Philosophisches Handbuch Künstliche Intelligenzhttps://doi.org/10.1007/978-3-658-19606-6_43

Digitale Ethik und die Künstliche Intelligenz

Sarah Spiekermann1  
(1)
Institut für Wirtschaftsinformatik und Gesellschaft, Wirtschaftsuniversität Wien, Wien, Österreich
 
 
Sarah Spiekermann

Zusammenfassung

Ohne auf Science-Fiction KIs zurückgreifen zu müssen, zeigt dieser Beitrag auf, wie ethisch komplex realistisch zu erwartende KI-Systeme der Zukunft sein werden. Ihre multiplen Einsatzkontexte erfordern eine systematische wertethische Zukunftsanalyse, deren mögliche Methodik in diesem Beitrag vorgestellt wird. Der Beitrag stellt keine weitere von über 80 Wertprinzipienlisten auf, an denen sich KI-Systemingenieure in der Zukunft orientieren könnten, sondern er führt den Leser in die Grundbegriffe der Materialen Wertethik ein, welche ihn zum grundsätzlichen ethischen urteilen und planen entsprechend guter künftiger KI-Systeme befähigen kann. Der Beitrag stellt eine philosophisch fundierte Begriffswelt für die KI-Systemgestaltung vor, in der Kernwerte von Wertqualitäten, Werte von Tugenden und Algorithmen von Wertdispositionen unterschieden sind.

Schlüsselwörter
Künstliche IntelligenzMateriale WertethikWerteMoral MachinesEthikTechnikphilosophieEthische SystemgestaltungValue based system design

1 Einleitende KI Definition in Abgrenzung zur Science-Fiction KI

Wenn Persönlichkeiten wie Bill Gates oder Elon Musk heute öffentlich vor KI-Systemen warnen, dann verknüpfen technische Laien diese Warnungen sehr schnell mit den Dystopien der Science Fiction. Filme wie Blade Runner, Ex Machina, Westworld, Odysee 2001 oder I-Robot haben die öffentliche Vorstellung von KI-Systemen geprägt, die oft einem humanoiden Roboter mit menschenähnlicher Hülle und überragender Intelligenz entspricht. Auch einige transhumanistische Futuristen glauben an das baldige Erscheinen solcher KI-Systeme (Bostrom 2014; Kurzweil 2006). Und obgleich Märchenfiguren immer schon regulative Ideen für das ethische Bewusstsein von Menschen gewesen sind, so wird der vorliegende Beitrag dennoch etwas nüchterner ausfallen, was die Erwartungen an diese „Superintelligenzen“ angeht. Das Böse ist, wie Hannah Arendt schon bemerkte, doch oft banaler als man es erwartet.

Die Abgrenzung der KI-Systeme in diesem Beitrag von den KI-Systemen der Science-Fiction ist überaus wichtig für einen Beitrag zur KI-Ethik. Nicht wenige politische Dokumente, wie etwa der National Defense Authorization Act (2019), beschreiben KI-Systeme als „menschenähnlich“. Die Idee ist so mächtig geworden, dass offen über eigene Rechte für KI-Systeme nachgedacht wird („Robot Rights“, (Gunkel 2018)), Staatsbürgerschaften an diese vergeben worden sind (Hatmaker 2017) und die Idee einer eigenen KI -Rechtspersönlichkeit die Bühne der Politik betreten hat (Krempl 2018). Spricht man KI-Systemen jedoch auf politischer Ebene eine Menschenähnlichkeit zu und gibt man ihnen auf dieser Erwartungsgrundlage entsprechende Rechte, würde das in die Freiheit und Würde von Menschen zutiefst eingreifen. In allen Bereichen des Lebens würden wir Normen im Umgang mit der neuen „Spezies“ entwickeln müssen. Ist es recht, einen Roboter zu treten? Tötet man ihn, wenn man ihn ausschaltet oder den Strom abdreht? Untergräbt der Fremdgang mit einem Roboter die Würde des menschlichen Partners? Die Palette an ethischen Fragen wäre schier unerschöpflich und ein Beitrag wie der vorliegende müsste entsprechend inhaltlich aufgebaut sein. Um dieser Art von präpotenten Fragen aus dem Weg zu gehen, ist die KI hier als das definiert, was sie aus wissenschaftlicher und technischer Perspektive in absehbarer Zeit wahrscheinlich leistet.

Ich definiere sie hier als ein entweder virtuelles oder Gehäuse bestücktes, integriertes digitales Computersystem, welches auf Basis von großen, zumindest teilweise unstrukturierten Datensätzen diverse kognitive Funktionen selbständig ausführen kann. Kognitive Funktionen können das Wahrnehmen, Planen, Schlussfolgern, Kommunizieren, Entscheiden und Agieren einschließen. Diese Funktionen können von dem KI-System unter Berücksichtig von i. d. R. von Menschen beeinflussten Zielfunktionen auch ohne menschliche Intervention durchgeführt werden. Abb. 1 fasst diese Definition zusammen und konkretisiert sie. In der linken Spalte finden sich die sehr umfangreichen menschlichen Eigenschaften, die KIs in der Science-Fiction regelmäßig zugeschrieben werden und die kein digitales KI-System auf der Welt besitzt, geschweige denn besitzen kann (Spiekermann 2020). Dazu gehört etwa die nicht umsetzbare Fähigkeit von KIs, wie Menschen in Noemata zu denken (Beyer 2016) oder mit einem Leibgedächtnis zu arbeiten (Fuchs 2016). In der mittleren und rechten Spalte, die für diesen Beitrag relevant sind, werden die KI-Systeme beschrieben, die in der Praxis existieren oder mit denen zumindest ernsthaft experimentiert wird.
Abb. 1

Charakteristika von realistischen und unrealistischen KI-System-Systemen. (Quelle: eigene Darstellung)

Die grau dargestellten Systemeigenschaften sind solche, die noch einen hohen Forschungsbedarf haben und im Jahr 2020 nicht verlässlich funktionieren; etwa die kontextübergreifende Verarbeitung von unbereinigten Daten, das nicht überwachte Machine-Learning oder die domänenübergreifende selbstständige Wahl von Handlungszielen. Die Abbildung unterscheidet auch, ob ein KI-System eine Software hinter einem autonomen System ist (virtuell) oder ob es ein Hardwaresystem ist. Für beide Formen von KI-System gibt es Praxisbeispiele. Rein virtuelle KI-Systeme sind zum Beispiel digitale Sprachassistenten wie Amazon Alexa oder Google Speech Assistant. Im Gegensatz dazu haben physische System wie selbst fahrende Autos Aktuatoren, die die errechneten Handlungen eines Algorithmus für ein System in mechanische Bewegungen übersetzen. Sie sind deutlich komplexer. In jedem Fall empfiehlt es sich immer, von einem „KI-System“ zu sprechen, weil in der Regel eine Vielzahl von Systemelementen zusammenwirken müssen, um die Funktionen zu erbringen, die von Menschen als intelligent empfunden wird.

Die Frage nach der Ethik in einem so definierten KI-System ist nichts anderes als die Frage, ob ihre Existenz in den unterschiedlichen Graden und Arten ihrer Entfaltung jeweils erstrebenswert ist oder abgelehnt werden sollte. Was macht ein System gut oder böse? Wie kann dafür gesorgt werden, dass es selbst bzw. die Menschen die es nutzen, richtig oder falsch handeln. Bei diesen Fragen geht es weniger darum, welche ausgewählten, konkreten Eigenschaften ein KI-System haben sollte. Oftmals dreht sich die heutige Diskussion von KI-Ethik um eine Hand voll Prinzipien wie Datenschutz, Transparenz, Sicherheit oder Gerechtigkeit. Es scheint, als würde man als Betreiber eines KI-Systems der Ethik gerecht geworden sein, wenn man nur diese vier oder ein paar mehr Werteigenschaften beim Bau und Betrieb berücksichtigt. Dies ist jedoch nicht der Fall. Ethik geht sehr viel weiter. Sie „schafft eine allgemeine Grundlage, von der aus das Aktuelle objektiv, wie aus der Vogelschau, gesehen wird … sie lehrt nicht fertige Urteile, sondern ‚Urteilen‘ selbst“ (Hartmann 1926). Dieser Beitrag wird sich daher damit beschäftigen, wie wir KI-Systeme grundsätzlich wertethisch beurteilen können und wie wir sie so bauen können, dass ein wertethisches Urteil positiv ausfällt.

Bisher werden in der Computerethik fünf Felder isoliert, in denen ethisches Urteilen zum Tragen kommt (Robertson et al. 2019): Sehr prominent ist (1) das Forschungsfeld, wo ethische Theorien zur Optimierung von Algorithmen herangezogen werden (Anderson und Anderson 2011). Diskutiert wird gerne das „Moral Machine“ Experiment am MIT, mit dem dieser Beitrag im nächsten Abschnitt beginnt. Solche Arbeiten zu ethischen Algorithmen werden ergänzt (2) von Forschung zur konkreten werte-basierten Ausgestaltung von Technologie, dem sog. „Value Sensitive Design“ (Friedman und Kahn 2003), „Value based Design“ (Spiekermann 2016) oder Ethically aligned Design (IEEE 2019a). Menschliche Werte werden hier herangezogen, um eine gute Systemarchitektur, Systemkontrolle, Datenmanagement etc. zu informieren. Wenn bestimmte negative Wertfolgen eines Systems schwer vertretbar sind, geht es um die Frage (3), ob bestimmte Technologien gar nicht erst entstehen sollten; ein Thema was von Hans Jonas in seinem Werk zum „Prinzip Verantwortung“ aufgebracht worden ist (Jonas 1979). Schließlich gibt es noch zwei weitere Felder, wo ethisches Urteilen zum Tragen kommt, nämlich ob es Forschungsgrenzen geben sollte und wer zu neusten technologischen Erkenntnissen und Artefakten Zugang haben sollte. Im vorliegenden Beitrag gehe ich vor allem auf die beiden ersten großen Felder der digitalen Ethikforschung ein; also auf ethische Algorithmen und wertethisches Design von KI-Systemen.

2 Ethische Algorithmen oder „Moral Machines“

Wenn heute über die Ethik von KI-Systemen diskutiert und geschrieben wird, fokussiert ein Teil der öffentlich wirksamen Debatte auf das, was das MIT Team rund um Iyad Rahwa als „Moral Machines“ bezeichnet (Awad et al. 2018). Im Zentrum des Interesses steht ein selbstfahrendes Auto, was das moralische Dilemma konfrontiert, einen Unfall bauen zu müssen und vor der Wahl steht, beispielsweise entweder einen schwankenden Teenager auf der linken Seite der Straßen zu überfahren oder zwei alte Dame auf der rechten Seite. Das Szenario skizziert ein Beispiel des größeren „Machine Ethics“ Forschungsbereichs (Anderson und Anderson 2011), dem es darum geht, wie Algorithmen aussehen müssten, die Entscheidungen (inklusive Dilemmata) ethisch vertretbar und selbständig lösen können.

2.1 Utilitaristische und Kantische Maschinen

Fast 40 Millionen Menschen aus 233 Ländern durchliefen bezogen auf das selbstfahrende Auto eine Conjoint Analyse, bei der sie neun moralische Präferenzen abwägen sollten: ob das Auto z. B. eher Menschen oder Tiere schützen sollte, eher Frauen oder Männer, eher ältere oder jüngere Menschen, eher reiche oder arme, etc. Die ethische Theorie, die diesem Experiment zugrunde liegt, entspricht dem Utilitarismus. Der Utilitarismus wurde von Jeremy Bentham und John Stuart Mill im 18. Jahrhundert erfunden (Bentham 1787; Mill 1863/1987). Er postuliert, dass ethische Probleme nach der Regel gelöst werden können, dass man Entscheidungen im Sinne des größtmöglichen Glücks für die größtmögliche Zahl von Menschen fällt. Und dieses Glück ermittelt sich im Utilitarismus, indem man die Vorteile aus einer Entscheidung den entsprechenden Nachteilen gewichtet gegenüberstellt. Danach müssten „ethische“ Algorithmen so entscheiden, dass die Summe der Vorteile überwiegen (Anderson et al. 2005). Um zu wissen, wie wichtig Vorteile und Nachteile etwa im Szenario mit dem selbstfahrenden Auto sind, könnte man soziale Erwartungen quantifizieren, ggf. auch mit unterschiedlichen Gewichten für unterschiedliche Kulturen; so zumindest empfehlen es die Wissenschaftler rund um das Moral Machine Experiment („quantifying societal expectations about the ethical principles that should guide machine behavior“). Sie kritisieren dabei explizit die Empfehlung der deutschen Ethik-Kommission der Bundesministeriums für Verkehr und Digitale Infrastruktur (BMVI), die in 2017 die Empfehlung ausgesprochen hat: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt“ (Ethik-Kommission 2017, S. 11).

Diese Diskrepanz im ethischen Urteilen lässt sich mit unterschiedlichen ethischen Theorien nachvollziehen. Während die US-Autoren den beschriebenen Utilitarismus zugrunde legen, folgt die Ethik-Kommission des BMVI einer Kantische Regel. Der erste Teil von Kants Kategorischem Imperativ gibt Akteuren die Pflicht auf, nur nach einer solchen Maxime zu handeln, von der man zugleich wollen kann, dass sie ein allgemeines Gesetz werde (Kant 1786). Maxime sind Regeln und Prinzipien persönlichen Handelns. Im vorliegenden Kontext war eine bedeutende Maxime der BMVI Gutachter sicherlich die Gleichstellung aller Menschen, egal welchen Alters, Geschlechts oder Besitzes, die auch im deutschen Grundgesetz verankert ist. Mit der von Kant geprägten Pflichtkultur ist ein utilitaristisches Aufwiegen von Eigenschaften gleichgestellter Menschen kaum vereinbar. Das heißt nicht, dass ethische Algorithmen abgelehnt werden. Jedoch steht zur Diskussion, ob nicht lieber „Kantische Maschinen“, mit klaren Regeln und ggf. menschenrechtskonformen Wertprinzipien die Leitlinien für die Gestaltung und den Einsatz von Algorithmen vorgeben sollten (siehe etwa (Powers 2006)). Wenn der Algorithmus aus ethischen Gründen kein Aufwiegen von Menschen und ihren Merkmalen vornehmen darf, muss er sich an anderen Kontextfaktoren für seine Entscheidung orientieren. Die Infrastruktur um das Auto herum könnte etwa so gestaltet werden, dass die Automatik des Autos immer nach rechts außen schleudert, wo eine entsprechende Unfallschutzzone einzurichten ist, die von Menschen nicht betreten werden darf.

Das Beispiel erlaubt aufzuzeigen, dass ein Algorithmus je nach der ihm zugrunde liegenden ethischen Theorie zu sehr unterschiedlichen Handlungsempfehlungen bzw. Lösungsräumen führt. Dies ist ein Beweis dafür, dass die Ausgestaltung von Algorithmen und die Art ihrer Einbettung in einen Lebenskontext keinesfalls neutral sind. Stattdessen inkorporieren sie die Werte- und Handlungskultur der jeweiligen Systementwickler sowie derjenigen, die über die Einbettung des Systems in einen weiteren Kontext entscheiden.

Das Beispiel zeigt auch, dass die sittlich wahrscheinlich beste Lösung gar nicht durch den Algorithmus allein herbeigeführt werden kann, sondern nur im Zusammenspiel mit einem vorhandenen oder noch zu schaffenden Kontext; hier einer eigenen Unfallspur. Was das Moral Machine Experiment problematisch macht ist, dass ethische Entscheidungen immer vom Kontext abhängen, denn was Gut und Böse, richtig oder falsch ist, das ergibt sich in einer Situation in der Regel als Folge der Einbettung des Entscheiders in die Umwelt. Ein geschlossenes System läuft Gefahr, nur sich selbst zu sehen; technisch gesprochen „selbst referentiell“ zu arbeiten. Und ist es nicht so, dass selbst im Märchen die bösen und verwirrten Figuren oft als die selbstreferenziellen, nur sich selbst sehenden und damit verblendeten dargestellt werden?

2.2 Akt Utilitarismus als fragwürdiger Versuch künstlich ethisch zu entscheiden

Nun ist es nicht so, dass die Unterform des Utilitarismus, die sich explizit am Akt orientiert (sog. „Akt-Utilitarismus“), nicht doch in der Lage wäre, genau solche Kontextfaktoren mit einzubeziehen (Frankena 1973). Das Moral Machine Experiment hat die generelle und Regel-basierte Form des Utilitarismus zugrunde gelegt, die vom konkreten Einzelfall abstrahiert und damit generelle Regeln für autonome Fahrzeuge aufzustellen sucht. Der am Akt orientierte Utilitarismus hingegen würde jede Unfallsituation separat betrachten und die gewichteten Vor- und Nachteile je nach individuellem Kontext neu vergleichen. So würde sicherlich jeder Fahrer, der die Wahl hat, seine Jugendliebe zu überfahren oder eine anonyme Person, eher versuchen, die Jugendliebe zu schützen, weil diese ihm oder ihr nähersteht. Das selbstfahrende Auto müsste genauso handeln. Dieser in der Theorie einsichtige Akt-Utilitarismus hat in der technischen Praxis jedoch das Problem, dass das Entscheidungssystem dann unendlich viele solcher individuell, hoch-spezifischen Situationsinformationen zur Verfügung haben müsste, um für jeden Akt und für jeden Nutzer richtig zu differenzieren und Entscheidungsoptionen zu gewichten. Woher soll es sonst wissen, wer die Jugendliebe war?

Dass es ein nicht menschliches Informationssystem geben kann, auf Basis dessen ein Algorithmus so aktspezifisch-präzise arbeitet, erscheint selbst vor dem Hintergrund hoch kontext-sensitiver Systeme fragwürdig. Der Möglichkeitsraum ist einfach sehr groß. Die notwendige Entscheidungsinformation, die aus dem Kontext herausgelesen werden müsste und die mit den persönlichen wie historischen Informationen des Individuums kombiniert und gewichtet werden müsste, ist irreal hoch. Und obgleich heute daran gearbeitet wird, Echtzeitprofile immer weiter auszubauen (etwa für die Bereitstellung zielgenauer Onlinewerbung (Christl und Spiekermann 2016)), so stellt sich bei dieser Akt-spezifischen Reaktion eines Systems sofort eine nächste ethische Frage: nämlich die nach der Privatsphäre und Kontrolle der Datensubjekte. Wird man wollen, dass KI-Systeme das ganze eigene Leben in solchem Detail mitschneiden, analysieren und pro-aktiv gewichten? Und verträgt sich das überhaupt mit den diversen Datenschutzgesetzen und Privacy Guidelines, die schon heute von den meisten demokratischen Staaten weltweit anerkannt sind? (siehe etwa (EU Parliament and the Councial 2016))

Ferner stellt sich die Frage, aus wessen Perspektive und zugunsten wessen Präferenzen das KI-System eigentlich entscheiden soll. Bei uns Menschen ist klar, dass immer der menschliche Entscheider selbst derjenige ist, aus dessen Sicht das Urteil gefällt wird. Beim Einsatz eines KI-Systems hingegen, könnte auch die Perspektive der Betroffenen (also der Autoinsassen) oder die des Betreibers oder die der Gesellschaft als Ganzes mit einbezogen werden. Eine utilitaristisch basierte ethische Maximierungsfunktion müsste also die individuell situationsspezifische Präferenzstruktur aller beteiligten Akteure berücksichtigen und deren Position wiederum gegeneinander gewichten. Diese Gewichtung diverser Akteurs-Interessen ist eine ethisch heikle Fragestellung, die auch in dem MIT-Experiment als Dilemma aufgetreten ist: Nahmen nämlich die Probanden den von Thomas Nagel kritisierten, typischen utilitaristischen „Blick von Nirgendwo“ ein (Nagel 1992), dann bewerteten sie den utilitaristisch arbeitenden Algorithmen positiv. In dem Moment, wo sie allerdings als Passagiere des Autos explizit mit im Kalkül waren, was auch gegen sie ausgehen kann, waren sie nicht mehr bereit, in so ein utilitaristisches Auto einzusteigen bzw. zu kaufen (Bonnefon et al. 2016). Kurz: der Akt-basierte utilitaristische Ansatz zur Programmierung ethischer Algorithmen erscheint in der Theorie vielleicht attraktiv, ist in der Praxis jedoch schwierig.

Sicherlich könnten die praxisnahen Computerwissenschaften versucht sein, diese ganze ethische Komplexität und die kritische Ausdifferenzierung der ethischen Theorien einfach zu ignorieren. Ob diese Art von vereinfachter Wissenschaft gerade im ethischen Bereich allerdings ratsam ist, sei dahingestellt. Einstein hat einmal gesagt, man solle die Dinge einfach machen, aber nicht einfacher als sie sind.

Die kurze Vorstellung des Utilitarismus und der Kantschen Moral kratzt nur die Oberfläche dessen, was aus philosophischer Sicht im Moral Machine Experiment relevant sein kann. Sowohl der Utilitarismus als auch Kants Moralphilosophie müssen sich nunmehr seit über 200 Jahren einem kritischen Diskurs stellen, denn beide Theorien werden von Philosophen weder als perfekt noch vollständig angesehen; eine Debatte deren Darstellung hier die Länge des Beitrags sprengen würde (siehe etwa (Anscombe 1958; MacIntyre 1984)). Wenn also ein Computerwissenschaftler meint, er baue eine ethische Maschine oder wirke am „moral computing“ mit, was zumindest besser sei als menschliche Entscheider, weil die Maschine ‚objektiv‘ auf Basis von gesammelten Daten und quantifizierten Präferenzen eine der beiden bekannten ethischen Theorien umsetzt, der irrt. Er oder sie läuft Gefahr, nicht mehr zu tun, als das oberflächliche Grundgerüst von umstrittenen Theorien in Stein zu meißeln bzw. in Code.

2.3 Zur Möglichkeit der Tugendethik in ethischen Algorithmen

Ein Grund, weshalb sowohl der Utilitarismus als auch Kants Moralphilosophie seit den 1950er-Jahren in die Kritik geraten sind, ist die rückkehrende Bedeutung der antiken Tugendethik, die sowohl bei Philosophen neu rezipiert wird (MacIntyre 1995), als auch bei Wirtschaftswissenschaftlern (Nonaka und Takeuchi 2011; Sachs 2019b) und Technikphilosophen (Ess 2013; Spiekermann 2019; Vallor 2016). Die Tugendethik wurde von Aristoteles in seiner Nikomachischen Ethik ausführlich dargestellt (Aristoteles 1969). Das Wort Tugend wird altgriechisch als aretḗ übersetzt (ἀρετή ), was für Tüchtigkeit und Tauglichkeit steht. Tugenden sind Personenwerte, die einen Menschen als herausragend gut erkennen lassen; tauglich und tüchtig etwa durch Mut, Selbstlosigkeit, Großzügigkeit, Gerechtigkeit, etc. Mit der Tugendethik wird menschlich vorbildhaftes Verhalten als Essenz der Ethik rehabilitiert. Vorbilder zeigen uns, was es heißt, gut zu sein und richtig zu handeln. Tugenden wie der Mut oder die Selbstlosigkeit eines Fahrers spielen bei einem Unfallszenario sicherlich eine Rolle. Sie lassen sich jedoch meistens nicht präzise messen oder in einen Algorithmus einbauen. Ein Auto kann nicht selbstlos oder mutig sein. Warum nicht?

Natürlich könnte man versucht sein, den Dingen tugendhaftes Verhalten einprogrammieren zu wollen. Man könnte etwa versuchen, den Mut auf Basis eines Wahrscheinlichkeitskalküls zu simulieren. Trifft das Auto in einem Unfallszenario eine mutige Entscheidung, so ist dies vielleicht eine, wo die Wahrscheinlichkeit des Gelingens zwar relativ gering ist, die Zielfunktion der Rettung einer maximalen Anzahl von Menschenleben jedoch maximiert wird. Während man einem Menschen ein solch mutiges Verhalten nun hoch anrechnen würde, ist beim Auto interessanterweise genau das Gegenteil der Fall: Man würde nach dem Unfall die Frage stellen, warum das Auto eine Aktion ausgeführt hat, die objektiv mit einer geringen Wahrscheinlichkeit des Gelingens berechnet war. Die Ethik des Algorithmus wird hinterfragt, egal ob das Auto nun erfolgreich Menschenleben damit gerettet hat oder nicht. Der Mensch hingegen wird in jedem Fall als Held(in) gefeiert, wenn ihm oder ihr bei demselben riskanten aber mutigen Verhalten die Rettung gelingt. Erfolgreicher Mut wird belohnt. Warum diese unterschiedliche Beurteilung? Weil die mutige Fahrerin ihr eigenes Leben bei der riskanten Variante mit aufs Spiel gesetzt hat. Und dieses Leben ist ihr alles wert, während es dem Roboterauto nichts wert sein kann. Dem KI-System wohnt ja kein Leben inne, was es verletzlich machen würde. Zwar gibt es Science-Fiction Geschichten, wie Odysse 2001, wo der Bordcomputer Hal Angst davor hat, ausgeschaltet zu werden; es wird also in der Science-Fiction mit der Idee der Maschine als lebendigem Wesen gespielt. Manche Experten diskutieren sogar, ob eine „Kill-Switch“ bzw. Deaktivierung eines Systems mit dessen „Tod“ gleichgesetzt werden könnte (Brockman 2019). Oben wurde jedoch bereits klar auf die Unterschiede zwischen KI-Systemen in der Science-Fiction und in der Realität hingewiesen.

Ernsthaft festzustellen bleibt, dass es die Verletzbarkeit („vulnerability“) des Lebendigen zu sein scheint, was die Größe von tugendhaftem Handeln mit ausmacht; was mitbestimmt, wie wertvoll ein Verhalten ist. Tugend ist Ausdruck von Selbstlosigkeit im Angesicht eines Menschen, der eigentlich während der Dauer seines Lebens nichts mehr wirklich besitzt als eben dieses Leben. Wenn er oder sie mutig auf der verletzbaren Harfe dieses eigenen Lebens spielt, dann wird die Schönheit der Existenz in gerade dieser Verletzbarkeit, bewusst. Wichtig ist hier zu verstehen, dass Verletzbarkeit meist nicht körperlich gemeint ist; das Unfallszenario ist da ein Extrem. Tugenden wie Ehrlichkeit, oder Großzügigkeit scheinen alle zumindest einen Teil ihrer Größe aus dem Grad der Verletzbarkeit zu ziehen, den man auch als den Grad des Verlusts, des Risikos, der persönlichen Kosten oder auch nur als ein Spannungsverhältnis beschreiben könnte. So ist es dann schwer, die Wahrheit zu sagen, wenn das Lügen in einer Situation opportuner wäre. Oder es ist dann schwer etwas abzugeben, wenn man gerade selber weniger hat. Indirekt ist diese Dynamik der spannungsgeladenen Tugendhaftigkeit bereits in Aristoteles Nikomachischer Ethik präsent. Aristoteles positionierte die Tugenden immer als Mittelweg, zwischen Lastern (Aristoteles 1969), denen man entsagen muss, um tugendhaft zu sein. Man muss etwa der verführerischen Prahlerei oder der lieb gewonnenen Schüchternheit entsagen, um ein gutes gemäßigt offenes Auftreten zu haben. Oder man muss der großspurigen Verschwendung und dem eigentlichen Geiz entsagen, um in gesunder Form großzügig zu sein. Ständig bewegt sich der Mensch nach Aristoteles – und auch im Einklang übrigens mit den neusten neurowissenschaftlichen Erkenntnissen (Sachs 2019a) – in diesem Spannungsverhältnis von Bedächtigkeit (Boulesis), Verlangen (Epityhmia) und dem Gewissen (Thymos).

Aus dieser Beschreibung heraus wird deutlich, warum ein ethischer Algorithmus nicht tugendhaft sein kann, egal ob er nun mit einer noch so ausgefeilten und dynamischen Wahrscheinlichkeitsfunktion ausgestattet ist und noch so vielen Daten zur Verfügung hat. Der Algorithmus (und damit auch das KI-System als Ganzes) hat nämlich weder ein emotionales Selbst zu bieten, was es aufs Spiel setzen könnte (Dennett 2019), noch kann es das emotionale Spannungsfeld nachvollziehen, in dem der Mensch versucht, sich tugendhaft zu positionieren. Allein die lasterhaften Gegenaxen von Tugenden, wie etwa Geiz oder Prahlerei, objektiv und kulturübergreifend zu modellieren, scheint schwer. Wo beginnt der Geiz? Wo die Prahlerei? Und wo hören sie auf? KI-Systeme können auf der Harfe des Lebens nicht mitspielen, weil ihnen die emotionale Existenz zwischen richtig und falsch, gut und böse, positiver und negativer Wertigkeit, weder gegeben noch vermittelbar ist.

Das heißt nicht, dass ein KI-System, wie zum Beispiel ein Roboter, nicht gebaut werden könnte mit dem Ziel, Tugendhaftigkeit zu simulieren und ethische Algorithmen und Daten mit diesem Ziel zu integrieren. Ein Roboter mag ein tugendhaft erscheinendes Verhalten wie einen höflichen Umgang als Abfolge von bestimmten Handlungs- oder Sprachnormen eingebaut bekommen (siehe etwa (Bertram et al. 2017; Spiekermann 2016)). Und das mag uns Nutzern auch gefallen! Ja es mag uns positiv an Regeln des tugendhaften Miteinanders erinnern. Aber ein KI-System kann selbst die emotionale Spannung nicht nachvollziehen, die mit der Aufrechterhaltung der Höflichkeit gegenüber einem Rüpel verbunden ist. Der Rüpel kostet den Roboter keine Kraft. Tugenden sind jedoch gerade mit dieser Kraft zum wahrhaft guten Sein verbunden. Der zutiefst emotionalen Spannung zwischen positiven und negativen Werten zu begegnen, und Gefahr zu laufen, Positives zu verlieren und Negatives zu schaffen, das ist die Essenz des „Daseins“ eines bewusst Lebenden. „Nicht durch innere Wahrnehmung und Beobachtung …, sondern im fühlenden lebendigen Verkehr mit der Welt …, im Lieben und Hassen selbst, d. h. in der Linie des Vollzugs jener intentionalen Akte blitzen die Werte und ihre Ordnungen auf!“, schrieb Max Scheler 1921 (Seite 65 in (Scheler 1921 (2007))), der Begründer der Materialen Wertethik.

3 Kernkonstrukte der Materialen Wertethik

Spätestens an dieser Stelle, wo argumentiert wird, dass einem KI-System kein existenzielles Verstehen von Wertigkeiten vermittelbar ist, ist es erforderlich, den Wertbegriff und die Wertethik genauer zu beschreiben.

Die Materiale Wertethik von Max Scheler (Scheler 1921 (2007)) und Nikolai Hartmann (1926), die diesem Beitrag zugrunde liegt, ist die sicherlich differenzierteste philosophische Analyse von Werten. Aufbauend auf Scheler beschreibt Nikolai Hartmann, dass wir uns Werte ähnlich wie geometrische Prinzipien vorstellen sollten. Wir wissen, was ein ideales Dreieck prinzipiell ist und können es mit dem Satz des Pythagoras fassen. Und wenn wir dann in der Realität ein Ding mit dreieckiger Form sehen, dann erkennen wir das Prinzip des Dreiecks darin wieder. Ähnlich so die Werte. Werte sind Prinzipien des Sein Sollens, die unserem Handeln Orientierung geben und wir erfassen sie durch unsere Sprache. Zum Beispiel durch ein Wort wie „Mut“. Und wenn wir jemanden bei einer mutigen Tat beobachten, erkennen wir das Prinzip des Mutes in der Tat wieder.

Die Wertethik unterscheidet Personenwerte wie die Tugenden von Güterwerten. Ein selbstfahrendes Auto kann Träger von positiven Güterwerten sein wie etwa der Sicherheit, Langlebigkeit, Verlässlichkeit, Schönheit, Gemütlichkeit, Ruhe, Geräumigkeit, Umweltfreundlichkeit, etc., je nachdem wie es gestaltet und gebaut ist. Oder es kann Träger von negativen Güterwerten sein, wie Umweltunverträglichkeit, Unsicherheit oder Protzigkeit. Bei der Ethik von KI-Systemen geht es um die Frage, wie diese Systeme zu Wertträgern in ihren jeweiligen Einsatzkontexten werden können. Und schon die kurze Liste denkbarer relevanter Werte eines autonomen Fahrzeugs zeigt, wie eng die Gerechtigkeitsdebatte im Umfallalgorithmus eigentlich ist. Sie konzentriert sich nämlich auf nur einen einzigen von sehr vielen Werten, die für solche neuartigen Fahrzeuge relevant werden können und die allesamt eine wertethische Analyse wert wären.

Wichtig ist bei der wertethischen Analyse zu beachten, dass die Ideen (Noema) von Werten, also die Idee von dem was sein sollte, unabhängig davon ist, was wir Menschen unbedingt persönlich erstrebenswert finden. Werte sind keine Meinungen. Das Prinzip „Dreieck“ ist nicht nur da, weil Pythagoras meinte, dass es existiert und sich dafür interessiert hat. Und ein Wert wie Umweltfreundlichkeit ist auch nicht davon abhängig, dass jemand ihn wichtig findet oder beim Bau eines Autos berücksichtigt. Stattdessen sind geometrische Prinzipien ebenso wie Werte in der Natur a priori gegeben. Selbst wenn ein Automobilbauer meint, Umweltfreundlichkeit spiele keine Rolle für die eigenen Fahrzeuge, so wird er nicht ändern können, dass es diesen Wert gibt und dass sich einige Kunden zu diesem hingezogen fühlen und entsprechende Kaufentscheidungen fällen. Werte sind definierbar als „unreduzierbare Grundphänomene fühlender Anschauung“ (Scheler 1921 (2007), S. 272) die wir als abgrenzbare Einheiten geistig erleben und die den Dingen um uns herum Bedeutung geben.

Je nach Milieu und Bildung können wir Menschen durch unsere Neigung (die fühlende Anschauung) erkennen, dass eine Person, ein Ding, ein Urteil oder eine Aktivität wertvoll sind oder nicht. Die Materiale Wertethik spricht hier vom „Wertgefühlund stellt eine Analogie zu Platon her, der den Begriff des „Schauens“ verwendet hat (Hartmann 1926). Zentral ist bei Max Schelers Beschreibung dieses Wertgefühls, dass man sich zu einem positiven Wert entweder hingezogen fühlt oder von einem Unwert abgestoßen wird. Scheler schreibt: „In jegliches Streben nach Etwas geht … ein Fühlen irgendeines Wertes … fundierend ein.“ Der Wert ist „die Bild- oder Bedeutungskomponente des Strebens“ (Scheler 1921 (2007), S. 357). Wenn man beispielsweise ein wirklich schönes Auto sieht, dann strebt man danach, es sich näher anzusehen. Das Streben oder sich hingezogen fühlen, wird ausgelöst durch den Wert der Schönheit. Der Wert der Schönheit (nicht das Auto!) löst „Zugqualität“ aus (Scheler 1921 (2007)).

In der Wertethik wird postuliert, dass nicht nur Dinge oder Personen, sondern auch Urteile, Beziehungen oder Aktivitäten solche Zugqualität ausüben können, sofern sie Wertträger sind bzw. wenn sie so gebaut oder geartet sind, dass sie die Entfaltung von positiven Werten unterstützen und die Entfaltung negativer Werte verhindern. Apple Computer waren beispielsweise von Anfang ein dinglicher Träger von Werten wie Ästhetik, Präzision, Einfachheit und Bedienerfreundlichkeit. Daher haben sie viele Käufer angezogen. Eine Aktivität, wie das Bauen einer Schummelsoftware für Dieselmotoren bringt hingegen den Negativwert der Unehrlichkeit mit sich. Die Unehrlichkeit, die mit der Täuschung assoziiert ist, stößt ab. Solche Gefühle drängen jedoch die ketzerische Frage auf: Wie kann man als Urteilender sicher sein, dass das eigene Wertgefühl einen nicht trügt? Dass man nicht fälschlicherweise Werte zuschreibt, die eigentlich nicht zutreffen? Oder umgekehrt Unwerte meint zu sehen, für die es gar keine Grundlage gibt?

Ein Weg, Täuschung zu reduzieren, ist das Werturteil zu schulen. Hier hilft das fein differenzierende Vokabular der Wertethik zumindest ein bisschen weiter. Es fällt etwa auf, dass ich hier immer wieder vom „tragen“ positiver und negativer Werte spreche und nicht davon, dass ein KI-System einen bestimmten Wert „hat“, „eingebaut hat“ oder „besitzt“. Diese Differenzierung in der Sprache ist bedeutsam. In der Materialen Wertethik ist es nämlich so, dass die Dinge selbst nur Wertdispositionen besitzen, die – zumindest bei technischen Produkten- nachprüfbar sind. Dispositionen sind Voraussetzungen. Entwickler und Ingenieure schaffen objektive und nachprüfbare Voraussetzungen dafür, dass sich bestimmte Werte überhaupt entfalten können oder nicht. Sie bauen zum Beispiel einen ordentlichen Filter in einen Dieselmotor ein, so dass sich der Wert der Umweltverträglichkeit materialisieren kann. Damit wird ein Ding zum „Wertträger“; Zeug wird zu Gütern.

Jedoch entfaltet oder aktualisiert sich ein Wert effektiv nur dann, wenn er in einer entsprechenden Situation eine Rolle spielt bzw. wahrgenommen wird. Zum Beispiel kann ein Entwickler in einem KI-System wie einem Auto eine starke Verschlüsselung von Daten vorsehen. Diese Verschlüsselung ist die Voraussetzung oder Wertdisposition für die Sicherheit des Fahrzeugs. Sie ist jedoch nicht die Sicherheit selbst. Erst wenn eine ExpertIn, zum Beispiel vom TÜV, sieht, dass die Daten adäquat verschlüsselt sind, kann er oder sie zu dem Werturteil kommen, dass es sicher ist. Oder wenn ein Angreifer versucht, das Auto zu hacken und Daten zu missbrauchen. Gleichzeitig wird der Wert der Sicherheit den Angreifer in seinem Streben beeinflussen, das System anzugreifen. Möglicherweise schreckt die Sicherheit ihn ab. Sein Wertgefühl sagt ihm, dass er lieber die Finger davonlässt. Im Umkehrschluss heißt das aber auch, dass der Laie viele technische Werte möglicherweise gar nicht wahrnimmt oder richtig beurteilen kann. Sie materialisieren sich für ihn nicht, weil er von vielen wertrelevanten technischen Dispositionen (wie die Verschlüsselung) gar nicht genug Kenntnis hat; keinen Sinn für sie hat. Für die Vermeidung von Werttäuschungen ist es also nötig, dass sich das Wertgefühl mit einer gehörigen Portion Wissen oder Erfahrung in einer Sache verbindet oder man sich auf Personen verlassen kann, die diese Erfahrung haben.

Ein letzter wichtiger Terminus darf hier nicht fehlen: der der Wertqualität. Wenn man sagt, dass es der Wert der Sicherheit ist, der den Angreifer abschreckt und den TÜV positiv stimmt, dann sicherlich nicht nur weil die Voraussetzung der Verschlüsselung gegeben ist. Verschlüsselung führt zur Wertqualität der Vertraulichkeit. Aber i. d. R. werden Werte durch eine Vielzahl von Wertqualitäten in einem Kontext konstituiert. So wird der Kernwert der Sicherheit eines KI-Systems nicht nur durch die Vertraulichkeit charakterisiert, sondern auch durch die Integrität und Verfügbarkeit des Systems.

Wertqualitäten, die für einen Kernwerte instrumental sind, sind an sich die eigentlichen Werte in einem Kontext. Sie sind die „echten Qualitäten des Wertes selbst“ (Scheler 1921 (2007), S. 6) , die die Bedeutung des Kernwertes in einem Kontext konstituieren. So konstituieren die Wertqualitäten der Integrität, Vertraulichkeit und Verfügbarkeit für ein technisches System dessen Sicherheit. Nimmt man hingegen – zum Vergleich – einen anderen Kontext, in dem der Wert der Sicherheit auch eine Rolle spielt, kommen möglicherweise ganz andere Wertqualitäten zum tragen: Die Sicherheit eines Menschen auf der Flucht etwa würde sich durch Wertqualitäten wie die Geheimhaltung seines Aufenthaltsortes, die Loyalität der Mitwisser, die Verborgenheit seines Verstecks, etc. konstituieren. Hier nähme also der Wert der Sicherheit durch seine Wertqualitäten eine ganz andere Bedeutung an, obwohl in beiden Fällen derselbe Wertbegriff, also die „Sicherheit“, verwendet wird. Daraus folgt, dass eine wertethische Beschreibung eines Systems immer erst dann vollständig gegeben ist, wenn die Kernwerte mit dem breiten Spektrum ihrer Wertqualitäten im Kontext dargestellt sind. Dabei ist abschließend zu beachten, dass Werte und Wertqualitäten nicht nur positiv, sondern auch negativ sein können. Ein System kann unsicher sein, trügerisch, unzuverlässig oder manipulativ, auch wenn das Wort „Wert“ im Prinzip etwas Positives signalisiert.

Abb. 2 fasst die Begriffe der Wertethik, die für das weitere Verständnis dieses Beitrags fundamental sind, zusammen: Werte, Kernwerte, Wertqualitäten, Wertdispositionen, Wertträger, Wertgefühl.
Abb. 2

Grundbegriffe der Materialen Wertethik. (Quelle: eigene Darstellung)

4 Wertethisches Design von KI Systemen am Beispiel

KI Systeme können wie alle Computersysteme mit einer ethischen Grundhaltung gebaut werden. Das heißt, dass sie mit einem fundierten Verständnis davon gebaut werden, was gut und richtig ist, begleitet von einer inneren Haltung der Sorge um Stakeholder. Hier kommt uns die Materiale Wertethik mit ihren Begriffen in besonderer Weise zu Hilfe. Sie erlaubt es, den ganzen Entwicklungsprozess eines KI-Systems von Anfang an auf positive menschliche Werte auszurichten und dafür zu sorgen, dass die entsprechenden Wertdispositionen im System verankert werden. Ebenso kann sie dafür sorgen, dass potenzielle Negativwerte nicht entstehen können, da dafür die entsprechenden Schutzvorkehrungen im System geschaffen worden sind. Wie kann dies systematisiert werden?

Die Entwicklung von Computersystemen im Allgemeinen und von KI-Systemen im Speziellen wird von einem Innovationsteam begleitet und folgt i. d. R. einem „System Development Life Cycle“ (SDCL) der aus verschiedenen Arbeitsphasen besteht (Hoffer et al. 2002). Egal welche Systementwicklungsphasen und Vorgehensmodelle hier in Theorie und Praxis in den letzten Jahrzehnten erdacht und gelebt wurden, so kann man immer eine erst Phase der Ideenkonzeption abgrenzen, in der ein neues System grob durchdacht wird. Auf diese Phase folgt, sofern man die Systemidee weiterverfolgen will, die genauere Analyse von funktionalen und nicht-funktionalen Anforderungen an das System. Diese werden dann im Weiteren so spezifiziert, dass sie von Systementwicklern umgesetzt werden können. Schließlich kommt das System auf den Markt, wird dort getestet und heute i. d. R. fortlaufend weiterentwickelt. Alle diese Arbeitsschritte können von eigenen wertethischen Überlegungen begleitet werden.

4.1 Die wertethische Ideenkonzeption

Aus Sicht der Wertethik ist die vielleicht wichtigste Phase der Systementwicklung die, wo gefragt wird, warum das KI-System überhaupt gebaut werden soll. Die Frage nach dem warum ist die Frage nach den positiven Werten, die durch das neue System geschaffen werden sollen. Ist es nur der Geldwert oder „Return on Invest“, der dem Kapitelgeber als Wert erscheint? Oder werden wahrhaft höhere Werte geschaffen? Ein KI-System mit dem Anspruch „ethisch“ zu sein, sollte zum Ziel haben, möglichst hohe und möglichst viele positive menschliche und soziale Werte zu fördern. Gleichzeitig sollte der Materialisierung von Unwerten durch entsprechende Vorkehrungen vorgebeugt werden.

Wenn man noch mal auf das selbstfahrende Auto zurückkommt, so ist es sicherlich nicht die Gerechtigkeit des Unfallalgorithmus allein, die über die Ethik dieses KI-Systems entscheidet. Sollte der ethische Algorithmus in der Lage sein, Gerechtigkeit zu fördern, so ist er nur einer von vielen Wertdispositionen, die in so ein neuartiges Fahrzeug eingebaut werden sollten. Der Wert der Gerechtigkeit beantwortet jedoch nicht die Frage, warum solch ein System überhaupt in die Welt kommen sollte. Vielmehr scheint es die Chance zu sein, dass selbstfahrende Autos sicherer sind und zu mehr städtischer Ruhe und Umweltfreundlichkeit führen, wenn sich viele Haushalte diese Fahrzeuge teilen. Auch scheint die Möglichkeit attraktiv, dass durch stressfreies Fahren ohne Fahreraufmerksamkeit das Wohlbefinden aller Insassen gefördert wird. Sie sind frei, sich schöneren Dingen zu widmen, als sich auf die Straße zu konzentrieren. Kurz: Sicherheit, Ruhe, Umweltfreundlichkeit, Wohlbefinden und Freiheit könnten Kernwerte sein, um die sich die ethische Gestaltung dieser neuen Technologie drehen sollte. Es wäre gut (ethisch richtig), wenn solche Werte durch die neue Technologie in die Welt der Mobilität Einzug hielten. In der Ideenkonzeption geht es also um die Identifikation und das Abwägen solcher größeren Kernwerte eines Gesamtsystems, an denen sich dann die gesamte technische Entwicklung ausrichten sollte. ebenso wie die rechtliche und organisatorische Ausgestaltung der neuen Technologie.

Im Folgenden werde ich mich vor diesem Hintergrund nicht mehr mit dem Unfallalgorithmus als Begleitbeispiel beschäftigen. Stattdessen werde ich mich mit dem Infotainment-System eines solchen Fahrzeugs beschäftigen, das ganz wesentlich zum Wohlbefinden der Autoinsassen beitragen kann. Dieses Infotainment-System wird in meiner Analyse repräsentiert durch einen digitalen Sprachassistenten; einem KI-System, mit dem sich die Fahrzeuginsassen unterhalten können, das ihnen Musik, News. Hörbücher oder Produkte anbieten kann; und das sie in Ruhe lassen oder mit Werbung bombardieren kann, je nachdem wie es wertethisch konzipiert ist.

Vorbereitende Schritte für eine wertethische Ideenkonzeption

Die wertethische Analyse eines KI-Systems beginnt mit einem sog. „Concept of Operation“, was oft aus der Beobachtung des Marktes und den technischen Gegebenheiten resultiert. Das Concept of Operation enthält die verschiedenen Elemente eines Systems; bildet dessen Datenflüsse, Datentypen und Prozesseinbindung ab und gibt Hinweise auf die Systemnutzer bzw. Stakeholder.

Wichtig ist zu Beginn einer jeden wertethischen Ideenkonzeption, dass die Kontexte der Systemnutzung antizipiert und mitberücksichtig werden. Es ist ein Unterschied, ob man einen Sprachassistenten im Auto als Navigationshilfe benutzt, fürs Musik-Streaming, zur Erledigung von Online-Einkäufen oder ob man sich während der Fahrt mit dem Assistenten über Gesundheitsfragen unterhält. Meistens sind solche systemtechnisch differenzierten Kontexte aus Nutzersicht zwar integriert: Man setzt sich mit einer Grippe ins Auto, bittet das System hustend, eine Entspannungsmusik einzuspielen, woraufhin dieses einem pro-aktiv anbietet, bei der Apotheke vorbeizufahren, um beworbene Hustenbonbons abzuholen. Aber trotz dieser integrierten Nutzererfahrung ist es dennoch so, dass technisch die Skills eines Systems (also die integrierten „Services“ oder „Applications“), etwa die Navigation, Musik-Streaming, Onlinekauf oder Gesundheitskonversation sehr unterschiedlich aufgebaut sind. Sie enthalten ganz andere Datensätze und Funktionsalgorithmen und können daher je nach Konfiguration und Architektur zu sehr unterschiedlichen Werten beitragen. Somit ist es erforderlich, sie für die ethische Analyse zu differenzieren und jeweils separat zu betrachten.

Nehmen wir an, der hustende Passagier nimmt die Gelegenheit wahr, sich mit seinem Sprachassistenten über den eigenen Gesundheitszustand zu unterhalten. Was erfordert so ein Gesundheitskonversationskontext? Erstens sollte der Sprachassistent sicherlich mit seinen Informationen auf dem neusten Stand der Lehrmeinung sein; also über eine hohe Wissensqualität verfügen. Zweitens sollte er diese Information teilen, auch wenn der Nutzer nicht dem Weiterverkauf der ausgetauschten persönlichen Gesundheitsdaten zustimmt. Immerhin hat die ehrliche Preisgabe von Gesundheitsinformationen von jeher eine gewisse Verschwiegenheit auf Seite des Rat Gebenden erfordert. Sollte also ein Sprachassistent die Funktion eines Arztes hier einnehmen, so bräuchte er auch die Wertqualität der Verschwiegenheit. Er sollte den angeschlagenen Passagier auch nicht manipulieren, indem er ihm oder ihr ein gesponsertes Medikament empfiehlt, was ‚zufällig‘ in einer Apotheke am Weg verfügbar ist. Zusammengefasst erfordert der Kernwert der Gesundheit hier also für den Sprachassistenten Wertqualitäten wie verlässliches medizinisches Wissen, Verschwiegenheit bzw. Datenschutz, Abwesenheit von Manipulation ebenso wie kommerzielle Unabhängigkeit. Durch solche Wertqualitäten trägt der Sprachassistent zum Wert der Gesundheit bei.

Im Vergleich dazu ist nicht mal ein Bruchteil dieser Wertqualitäten wichtig für den Musik-Streaming Kontext des Sprachassistenten. Hier könnte zwar auch die kommerzielle Unabhängigkeit eine Rolle spielen. Aber wenn man genauer hinschaut, dann geht es beim Music-Streaming eher um Wertqualitäten wie Stimmungsgenauigkeit, Beliebtheit oder Aktualität der Songs. Diese formieren sich um einen anderen Kernwert, wie etwa die Freude des Nutzers. Kurz: Es gibt je nach Kontext des Systemeinsatzes sehr unterschiedliche Kernwerte und Wertqualitäten, die zu schaffen sind, um ein gutes, richtiges, stimmiges, ja wertvolles und damit ethisches System zu bauen. Und Kontexte sind nicht nur räumlich zu verstehen, sondern konstituieren sich durch unterschiedliche Formen der Systemnutzung.

Hinzu kommt, dass auch direkte und indirekte Stakeholder den Kontext mitbestimmen. So ist es etwa ein Unterschied, ob sich ein Kind mit einem Sprachassistenten über die Gesundheit unterhält oder ein Erwachsener. Und es entstehen andere kontextabhängige Wertqualitäten, je nachdem ob das selbstfahrende Auto einem fahrenden Besitzer gehört oder einem Betreiber, der viele Passanten ad hoc befördert. Bei einem Kind wäre allein schon wegen der Datenschutzgesetze der Wertqualität der Vertraulichkeit sicherlich eine besonders große Wichtigkeit beizumessen; ebenso aber auch, wenn jemand ein Fahrzeug gekauft hat und als Besitzer des Fahrzeugs sicherlich die volle Kontrolle über die im Auto anfallenden Daten haben möchte. Im Gegensatz dazu wird der Fahrer eines Leihwagens vielleicht weniger Kontrollansprüche an den Datenaustausch stellen. Solche Nuancen in den Wertqualitäten zu verstehen, ist für Systemhersteller und Betreiber von großer Bedeutung, um dann die intelligenten Services kontextsensitiv entsprechend richtig und fair zu konfigurieren.

Reflektion der Werte eines KI-Systems
Wenn einmal die Einsatzkontexte und Stakeholder für ein System verstanden sind, dann stellt sich die Frage, wie man sicher gehen kann, dass man das volle Spektrum der letztlich relevanten Kernwerte und Wertqualitäten auch erfasst. Dazu versetzt sich das Innovationsteam mit Hilfe von Szenario-Methoden in die zukünftige Systemwelt. Es stellt sich also vor, wie man in einem selbstfahrenden Auto durch die Stadt rollt und sich mit dem Sprachassistenten unterhält. Und dann werden drei ethische Fragen gestellt:
  1. 1.

    Welche kurzfristigen und langfristigen Vorteile und Nachteile könnten durch den Einsatz des antizipierten KI-Systems in diesem Kontext für die Stakeholder entstehen? Welchen Werten entsprechen diese Vor- und Nachteile jeweils? Das ist die utilitaristische Frage (Mill 1863/1987).

     
  2. 2.

    Welche langfristigen Konsequenzen hätte der Einsatz des antizipierten KI-Systems wahrscheinlich auf den persönlichen Charakter der direkten oder indirekten Stakeholder? Das ist die tugendethische Frage (Aristoteles 1969; MacIntyre 1995).

     
  3. 3.

    Welche persönlichen Maxime sind aus Sicht der Mitglieder des Innovationsteams betroffen von dem Einsatz des antizipierten KI-Systems? Und welchen Werten entsprechen diese Maxime? Das ist die pflichtethische Frage (Kant 1786).

     
Die Beantwortung dieser drei Fragen führt zu einem sehr breiten Spektrum an potenziellen Positivwerten und Negativwerten, die beim Einsatz von einem KI-System zum Tragen kommen können. In dokumentierten Fallstudien, die jenseits des Fahrzeugkontexts durchgeführt worden sind und die diese drei Fragen genutzt haben, konnten bis zu hundert systemrelevante Kernwerte und Wertqualitäten identifiziert werden. Diese werden dann gruppiert (Bednar und Spiekermann 2022 forthcoming; Spiekermann et al. 2019). Oben hatte ich schon die Umweltverträglichkeit, das Wohlbefinden, die Sicherheit, die Gesundheit, die Ruhe etc. als Beispiele für mögliche Kernwerte genannt, wenn es sich um ein selbstfahrendes Auto handelt. Ebenso werden aber Hersteller und Betreiber sicherlich den Gewinn als Kernwert sehen wollen. Abb. 3 bezieht sich lediglich auf den Sprachassistenten in so einem Auto und zeigt die exemplarisch besprochenen Kernwerte dieses Systems, mit ausgewählten Wertqualitäten für Sicherheit, Gesundheit und Gewinn.
Abb. 3

Exemplarische Kernwerte eines Sprachassistenten im selbstfahrenden Auto, mit ausgewählten Wertqualitäten für Gesundheit und Gewinn. (Quelle: eigene Darstellung)

Die große Wertsensitivität, die durch die drei ethischen Fragen geschaffen wird, ist nicht überraschend. Immerhin handelt es sich bei dieser Wertidentifikationsmethode um eine Synthese der drei großen ethischen Theorien von der Antike bis in die Moderne, von Aristoteles (Aristoteles 1969) über John Stuart Mill (Mill 1863/1987) bis zu Kant (Kant 1786). Was kann besser geeignet sein, das ethisch Relevante zu erkennen, als die Leitfragen dieser großen Theorien? Wobei angemerkt sein soll, dass es gerade die Tugendethik ist, die eine globale Perspektive auf Werte erlaubt, da es möglich scheint sowohl den Buddhimus als auch den Konfuzianismus letztlich als Tugendlehren zu verstehen (Vallor 2016).

Priorisierung der Werte eines KI-Systems

Hat man einmal das breite potenzielle Wertspektrum erkannt und Kernwerte mit entsprechenden Wertqualitäten gruppiert, kann eine Priorisierung der Kernwerte vorgenommen werden. Dies ist in einem kommerziellen und wettbewerbsintensiven Umfeld nicht einfach. Auftraggeber eines KI-Systems könnten verführt sein, negative Kernwerte im Interesse ihrer Gewinnmaximierung zu priorisieren. Oder sogar den Wert des Gewinns selbst als Priorität zu setzen, was in klassischen betriebswirtschaftlichen Modellen heute normal geworden ist (für eine kritische Analyse dieser Möglichkeit siehe Seiten 62 ff. in (Spiekermann 2019)). Man denke etwa an das Patent der Firma Amazon mit der Nummer US10096319, wo ein Sprachassistent beschrieben ist, der genutzt wird, um Nutzerzustände zu erkennen, wie etwa, ob jemand einen rauen Hals hat, um ihm oder ihr dann ein entsprechendes Hustenbonbon anzubieten (Amazon Technologies 2018). Bei der skizzierten Wertanalyse für Sprachassistenten würde wohl, wie oben angedeutet, herauskommen, dass der Negativwert der Manipulation hier ein Problem ist. Manipulation kann einen Wert wie die Gesundheit untergraben, weil vielleicht eher das schnelle Einnehmen eines Medikaments im Vordergrund steht als die wahrhafte Gesundheit des Kranken. Der Kernwert der Gesundheit der Systemnutzer muss daher abgewogen werden gegen den Wert des Gewinns. Aus wertethischer Sicht ist der Wert der Gesundheit höher als der Wert des Gewinns (für eine Einführung in Werthierarchien siehe (Hartmann 1926; Scheler 1921 (2007))). Die Gesundheit müsste also – wenn die Firma ethisch agiert – für das weitere Systemdesign des Sprachassistenten priorisiert werden, wobei Wertqualitäten wie der Datenschutz des Nutzers, die Abwesenheit von Manipulation und die kommerzielle Unabhängigkeit des Systems zum Tragen kommen.

Abb. 3 skizziert diese Dynamik und zeigt auch, wie die beiden Kernwerte der Gesundheit und des Gewinns in einem Spannungsverhältnis stehen und sich zum Beispiel an Wertqualitäten wie der kommerziellen Unabhängigkeit und Manipulation des Sprachassistenten entladen (was durch die farbliche Absetzung grün/rot und die Plus-Minuszeichen verdeutlicht wird).

Beim Betrachten allein der Kernwerte Sicherheit, Gesundheit und Gewinn mit ausgewählten Wertqualitäten fällt außerdem auf, dass die Konzeption eines KI-Systems eine hohe Wertekomplexität mit sich bringt. Vervollständigt man sie um weitere systemrelevante Werte, so endet man mit einer sehr langen Liste oder großen Skizze davon, was für ein System tatsächlich wertethisch relevant ist. Diese ethische Komplexität ist weit größer als man vermutet, wenn man international veröffentlichte „Leitprinzipien für KI“ studiert. Auf internationaler Ebene scheint es einen wachsenden Konsens bezüglich fünf ausgewählter Leitwerte für KI zu geben: das ist deren Transparenz, Gerechtigkeit, Nicht-Bösartigkeit, Verantwortung und Privatsphäre (Jobin et al. 2019). Oft kommt noch die Sicherheit dazu. Fehlen tut in dieser Liste aber – man denke an Autos mit Sprachassistenten – Werte wie Umweltverträglichkeit, Gesundheit, Kontrollierbarkeit, Abwesenheit von Manipulation, kommerziellen Unabhängigkeit, etc Und das ist ja nur die gekürzte beispielhafte Skizze derjenigen Werte, die bei Sprachassistenten tatsächlich eine Rolle spielen. Kurz: internationale Listen von Wertprinzipien, die in Zukunft normativ vorgegeben sein mögen, werden nicht ausreichen, um ethische KI-Systeme zu bauen. Es braucht eine wertethisch viel fundiertere systematische Urteilsmethode wie die, die hier schemenhaft vorgestellt worden ist, um die ganze Palette kontextrelevanter Werte systematisch herzuleiten, zu priorisieren und dann nach und nach zu adressieren. Ansonsten wird man hinter den sittlichen Erwartungen von Stakeholdern zurückbleiben.

Gute Gründe für wertethische Systemanalysen

Obgleich die wertethisch geleitete Systemkonzeption sehr umfassend ist, ist sie betriebswirtschaftlich sinnvoll. Sie kann Innovationsteams und Investoren zunächst einen ganzheitlichen und langfristigen Blick freigeben auf einen sehr großen Teil der tatsächlichen und heute oft negierten Wertpotenziale eines neuen KI-Systems. Diese Wertpotenziale sind zum einen positiv und helfen darüber nachzudenken, welche Servicevorteile und damit verbundenen Geschäftsmodelle ein KI-System wirklich bieten kann. Zum anderen entsteht durch das Erkennen der negativen Wert-Externalitäten jedoch auch ein gesunder Realismus bezüglich des überhaupt möglichen Systemerfolgs ebenso wie schwelender Wertkonflikte.

Die Liste an denkbaren Unwerten ermächtigt Innovationsteams außerdem gegenüber dem Management oder Auftraggebern des Systems, argumentativ zu begründen, warum ein bestimmtes KI-System vielleicht in einem bestimmten Kontext gar nicht erst eingesetzt bzw. entwickelt werden sollte. Damit ist die große Frage in der Ethik von KI adressiert, die ich eingangs aufgelistet habe, welche Technologien aus welchen Gründen und mit welchen Zielen gar nicht erst gebaut werden sollten.

Schließlich ermöglicht die Identifikation und Priorisierung von Kernwerten für ein KI-System sowie die Herausarbeitung von Wertqualitäten in den nächsten Phasen der Systementwicklung, diese Wertqualitäten in konkrete Systemanforderungen zu übersetzen, und diese dann wiederum systematisch in den Entwicklungsprozess einzubringen (IEEE 2019b; Spiekermann 2021 forthcoming). Ein funktionales „Roadmapping“ wird somit durch ein wertbasiertes komplementiert bzw. sogar ersetzt.

4.2 Nicht-funktionale ethische Anforderungen an KI-Systeme

Um auf Basis der wertethischen Ideenkonzeption an einem KI-System weiter zu arbeiten, ist erforderlich, alle Wertqualitäten priorisierter Kernwerte konzeptionell zu vervollständigen und zu detaillieren (sog. „Conceptual Analysis“ (Friedman und Kahn 2003; Spiekermann 2016)). Nimmt man etwa einen Wert wie den Datenschutz, so stellt sich auf Seiten der Systementwickler sofort die Frage, was denn unter dieser Wertqualität konkret zu verstehen ist. Es gibt eine Lücke zu schließen, zwischen der allgemeinen Wertqualitätsanforderung und dem konkreten Systemdesign, der Systemarchitektur und den später sinnvollen Algorithmen, Schnittstellen, etc. Abb. 4 verdeutlicht am Beispiel Datenschutz für Sprachassistenten, wie diese Lücke in mehreren Schritten geschlossen werden kann (IEEE, probably 2020): Nach der beschriebenen Wertreflektion und Priorisierung erfolgt eine konzeptionelle Wertqualitätsanalyse aller priorisierten Kernwerte. Danach werden für alle Wertqualitäten sog. „Ethical Value Quality Requirements“ (EVQRs) abgeleitet. Diese wiederum können an Systementwickler als ethische Anforderungen weitergegeben werden.
Abb. 4

Exemplarische Darstellung der Kette: Wertreflektion, konzeptionelle Analyse von Wertqualitäten, Ableitung von EVQRs am Beispiel Datenschutz für Sprachassistenten. (Quelle: eigene Darstellung)

Nehmen wir also an, dass das Innovationsteam den Datenschutz der KI-Nutzer hoch priorisiert. Wenn – wie beim Datenschutz – Rechtsgrundlagen für eine Wertqualität existieren, ist das oft die strukturierteste Vorlage für eine konzeptionelle Wertanalyse. Oft liegen solche Rechtsgrundlagen jedoch nicht vor. Man denke nur an Werte wie Vertrauen oder Transparenz, die keine Rechte sind. Wenn solche Werte wichtig erscheinen, sind Innovationsteams gefordert, sich in der geisteswissenschaftlichen und betriebswirtschaftlichen Literatur oder in Gutachten kundig zu machen, was die Werte bedeuten (für eine Einführung in viele IT relevante Werte und deren konzeptionelle Bedeutung siehe (Spiekermann 2016)).

Im Fall des Datenschutzes kann ein Innovationsteam mit der Europäischen Datenschutzgrundverordnung oder der Taxonomie der Privatsphäre im US-amerikanischen Rechtsraum (Solove 2006) arbeiten. Es zeigt sich dabei, dass die Verarbeitung der personenbezogenen Daten transparent sein muss. Ferner muss aber auch eine hohe Datenqualität gewährleistet sein, es braucht einer expliziten Zustimmung zur Datensammlung- und verarbeitung durch Nutzer. Letzteres muss legitim sein, was wiederum nur gegeben ist, wenn die Daten zweckgebunden verwendet werden; hier also für die Gesprächsführung mit Nutzern. Die Legitimität ist fragwürdig, wenn die Daten, zweitgenutzt werden, um den momentanen Gesundheitszustand von Nutzern zu errechnen und an Apotheken zu versteigern, die am Weg liegen; so wie es das oben beschriebene Amazon Patent vorsieht. Solch eine zweckentfremdete und wahrscheinlich aus Nutzersicht ungewünschte Datennutzung untergräbt – aus ethischer Sicht – die Legitimität. Folglich erfordert die Aufrechterhaltung der Legitimität des Sprachassistenten, dass Maßnahmen ergriffen werden, die so eine Zweitnutzung bzw. Weitergabe von personenbezogenen Daten technisch und/oder organisatorisch unterbinden. Kurz: die Analyse der Wertqualität Datenschutz führt über in eine sehr genaue und spezifische Identifikation vieler Einzelmaßnahmen. Solche Maßnahmen werden als „Ethical Value Quality Requirement“ bezeichnet und beschreiben ganz konkrete Voraussetzungen oder Wertdispositionen, die in einem System geschaffen werden sollten. Sie werden als sog. „Anforderungen“ an die Entwickler des Systems weitergegeben; zum Beispiel als Teil eines Pflichtenhefts.

Abb. 4 fasst den beschriebenen Fluss des wertethischen Denkens und Herleitens von Systemanforderungen zusammen. Sie zeigt, wie Innovationsteams von der Wertreflektion ausgehen, diese konzeptionell verfeinern, dann ethische Systemanforderungen formulieren und diese dann an die Systementwicklung bzw. Systemdesigner weitergeben. Am Ende steht eine lange Liste von funktionalen und nicht-funktionalen Systemanforderungen die, wenn sie alle abgearbeitet sind, ein System zu einem ethisch konzipierten machen.

5 Fazit: KI-Systeme sind nicht böse, sondern nur unachtsam gebaut

Dieser Beitrag zeigt, wie uns die Materiale Wertethik mit ihrer Begrifflichkeit dabei helfen kann, bessere IT-Systeme zu bauen, wenn man ihr differenziertes Vokabular auf den Entwicklungsprozess anwendet. Diese Vorgehensweise scheint besonders wichtig, wenn es um den Bau von KI-Systemen geht, da wir dieser Form von IT-System eine größere Selbstständigkeit im planen und durchführen von Aufgaben geben wollen. Wir müssen also sicher gehen, dass sie so agieren, dass sie dabei für unsere Gesellschaft Werte schaffen und diese nicht im Gegenteil vernichten. Die Wertethik erlaubt uns zu fragen, warum ein neues System überhaupt in die Welt kommen sollte oder auch nicht. Sie zeigt auf, was an einem neuen System von Wert ist und was nicht und kann somit auch dazu führen, dass Partikulardebatten, wie etwa das Moral-Maschine Experiment in ihrer Bedeutung (oder Bedeutungslosigkeit) besser eingeordnet werden können. Schließlich erlaubt sie uns, ein breites Spektrum tangierter Wertqualitäten zu antizipieren, um dann systemisch, technisch, organisatorisch vorzusorgen. All dies bedarf jedoch sehr viel Zeit und Sorgfalt. Eine Zeit und Sorgfalt, die nicht unbedingt jedem Innovationsteam heute gegeben wird. Die allergrößte wertethische Frage der heutigen Zeit im Bezug auf Technologie und KI ist daher, in wie weit ihre Erbauer und Investoren überhaupt gewillt sind, sich der Ethik in all ihrer Komplexität, Breite, Tiefe und vor allem Wahrheit wirklich zu stellen. Sicherlich denken sie immer noch, dass es mit der Einhaltung von ein paar Gesetzen und/oder ethischen Leitprinzipien getan ist, um die neuen Systeme zu bändigen. Diese werden jedoch niemals reichen, um eine sittlich gute und wünschenswerte Zukunft zu erschaffen; zumindest dann nicht, wenn KI-Systeme die begrenzten Kontexte von Schachbrettern und Fertigungsstraßen verlassen und wirklich in die Lebenswelt von Menschen eintreten. Hier erfordern die mannigfaltigen Einsatzkontexte, dass die Ingenieurs- und Innovationsteams diese antizipieren und systematisch im Hinblick auf Gutes und Böses durchdenken. Es wird wohl eher der Mangel an einer solchen echten und tiefen Achtsamkeit sein, der über eine wertvolle Zukunft entscheidet, als explizit böse Absichten.