9 | Von der Arbeit zur Tätigkeit |
9.1 | Arbeitswelten |
Bei vielen Zukunftsprojektionen über die neuen Arbeitswelten gibt es als Reaktion darauf ein Spektrum von Befürchtungen, die sich wie folgt knapp zusammenfassen lassen:
1. Verletzung der informationellen Selbstbestimmung:
Was „weiß“ die Maschinerie (d. h. der mit entsprechender KI-Technik versehene Arbeitsplatz) über mich? Kontrolliert und bewertet sie mein Verhalten, welche Schlüsse zieht sie aus den ihr zugänglichen Informationen über mich?
2. Reduzierung der eigenen Personalität auf einen Datensatz – man fühlt sich als bloße Nummer:
Die neuen Methoden des Human Resource Management wie KI unterstütztes Matching von Ausschreibung und Bewerbung erlauben Verfahren der Vorhersage des eigenen Verhaltens und der Beurteilung der persönlichen Fähigkeiten aufgrund von Performance-Daten etc.1
3. Befürchtung, das Objekt von in Maschinen implementierten Vorurteilen zu sein, die sich ergeben oder durch die abduktive Schlussweise verstärken:2
Wenn ich einen Fehler mache, glaubt die Maschine dann, dass ich das immer so mache? Welche Nachteile habe ich, wenn ich im falschen Viertel wohne, die falsche Hautfarbe habe, die falschen Freunde?
4. Bestehen dilemmatischer Situationen und Anpassungszwang:
Was wird von mir erwartet? Muss ich diese Techniken nutzen, und was weiß dann die Technik von mir? Warum entsteht bei mir ein Gefühl der Fremdkontrolle und Fremdbestimmung?
5. Gefühl, dass es mehr um die Ausbeutung von Kompetenz sowie Motivation und weniger um quantitativ messbare Arbeitskraft (= Arbeitszeit mal Arbeitsintensität) geht:
Obwohl ich vielleicht Ort und Zeit meiner Arbeit selbst wählen kann, werde ich nicht für meine Anstrengung, sondern nur für mein Wissen und meine Loyalität honoriert.
6. Suggestion, dass Maschinen ein besseres Urteilsvermögen hätten:
Es wird immer so getan, als ob das, was vom Computer kommt, quasi objektiv sei. Der Logik kann man sich scheinbar nicht mehr entziehen, obwohl man die Ergebnisse dessen, was die KI „sagt“, nicht nachprüfen kann.
Diese Gefühle signalisieren, dass der Einsatz von solch intelligenten Arbeitsplatzumgebungen auf Verhalten, Leistung und Effizienz ausgerichtet ist, und dies objektiv zu messen scheint. Dies wird aber als Reduktion erfahren:
„Bemerkenswert ist, dass bei der Frage, welche menschlichen Fähigkeiten zukünftig wichtig sind, neben abstraktem und logischem Denken, Fähigkeiten wie intuitive Urteilskraft, soziale Intelligenz, Umgang mit Unsicherheit, kreative Intelligenz oder auch Empathie genannt werden. Doch solche Fähigkeiten werden bisher in der Arbeitswelt wenig beachtet und wertgeschätzt. . . .
In der industriellen Produktion hat sich gezeigt, dass bei hoch-automatisierten technischen Anlagen qualifizierte Fachkräfte für die Überwachung und Regulierung notwendig sind und bleiben. Qualifikation ist dabei nicht gleichbedeutend mit einem ‚mehr‘ an systematischen, schulischen und akademischen Wissen. Theoretische Kenntnisse sind zwar wichtig, aber nicht hinreichend. Ein besonderes Erfahrungswissen über die jeweiligen Gegenstandsbereiche und Prozesse ist ebenso unerlässlich. Allerdings brauchen wir noch mehr Kenntnisse darüber, was das Erfahrungswissen bei ‚Büroarbeit mit KI‘ ausmacht. Es ist noch relativ unklar, wie Fähigkeiten wie z. B. die Urteilskraft damit verknüpft sind. Wir brauchen also einen neuen Blick auf menschliche Arbeit und menschliches Arbeitsvermögen.“3
Es geht daher, wenn man dem Zitat folgt, in der zukünftigen Arbeitswelt weniger um den Unterschied zwischen einfachen oder komplizierten Tätigkeiten, sondern darum, ob sie, wie in Abschnitt 2.2.3 und Abschnitt 4.1 gezeigt, formalisierbar sind oder nicht bzw. ob gut strukturierte Daten oder nur diffuse Daten vorliegen:
Es „zeigt sich, dass bei sogenannten einfachen Tätigkeiten häufig nur unstrukturierte und diffuse Informationen vorliegen, vor allem dann, wenn ein unmittelbarer Kontakt zur physischen und sozialen Umwelt besteht. So können komplizierte mit Zahlen operierende Abrechnungsverfahren leichter automatisiert werden als etwa das Einsammeln und Zurückstellen von Behältern bei der städtischen Müllabfuhr“.4
Die neuen Arbeitswelten verlangen, wenn man zuerst einmal auf die Produktion schaut, keine körperliche Arbeit, sondern primär eine Aufmerksamkeitsarbeit und die Fähigkeit, das Ergebnis der Aufmerksamkeit geeignet zu kommunizieren (Protokolle, Berichte, Gespräche). Gefordert werden dann Entscheidungen, die vor Ort und jetzt oder in Absprache mit anderen Arbeitsbereichen jetzt oder später gefällt werden müssen, und die Kompetenz, aufgrund dieser Entscheidungen gegebenenfalls in das Arbeitssystem eingreifen zu können.
Es geht also um Systembeherrschung. Einige klassische Merkmale der Arbeit wie der Kampf gegen die Natur oder die körperliche Anstrengung fallen weg. Die Mittel und Werkzeuge werden abstrakter. Sie sind nicht mehr Hammer und Sichel, sondern Bearbeitungszentren und Ernteroboter. Die Kooperation findet zum Teil automatisiert zwischen den Maschinen weltweit statt, und die Zielbestimmung des Arbeitsprozesses wird – so zumindest als Zukunftsprojektion – durch die durch KI-Lernprozesse getriggerte Optimierung von Wertschöpfungsketten maschinell ermittelt.
Bleiben noch die „weichen“ Qualifikationen: Eben diese Fähigkeiten sind so gut wie nicht formalisierbar, und deshalb werden sie eine wichtigere Rolle spielen, wenn die KI die gut strukturierten Arbeitsprozesse übernommen haben sollte.
9.2 | „Kollege“ Roboter? |
9.2.1 | Der Roboter als Werkzeug und Bestimmer |
Wir wollen ab diesem Abschnitt5 den Begriff Roboter allgemein fassen. Es geht um eine von der Umwelt klar abgrenzbare Maschine, die Aktorik, Sensorik und informationsverarbeitende Technik enthält. Dabei muss diese Maschine sich nicht unbedingt selbst fortbewegen können, sie kann aber in ihre Umwelt eingreifen. Eine solche Maschine muss nicht humanoid aussehen und wir müssen von den gängigen Roboterbildern aus Prospekten oder Science-Fiction-Filmen etc. abstrahieren. „Intelligente“ Roboter, abgekürzt IR, obwohl der Begriff vielleicht falsche Vorstellungen hervorruft, sind dann Roboter im vorangehend geschilderten Sinne, die innerhalb ihrer informationsverarbeitenden Technik auch KI-Komponenten aufweisen.
Die Fragen, die in Abschnitt 1.1.2 gestellt wurden, können wir jetzt eher beantworten. Das Thema Intelligente Roboter (IR) ist schon immer mit gewissen emotionalen Vorbehalten belastet gewesen, die gespalten sind: Auf der einen Seite steht die Begeisterung über die technische Machbarkeit – der Ingenieur ist „. . . in das Gelingen verliebt“6 – und die Aussicht, über die Machbarkeit Künstlicher Intelligenz die natürliche Intelligenz besser zu verstehen.7 Auf der anderen Seite steht der Vorwurf der Hybris, bei der Schaffung eines willfährigen Helfers die Kontrolle zu verlieren. Die variantenreichen Erzählungen um den Topos des Zauberlehrlings sind dafür ein Ausdruck.8 Diese Kritik an der Hybris verstärkt das Misstrauen und schwächt die Akzeptabilität auf der einen Seite, andererseits wird mit den Möglichkeiten der neuen Technologien ein Füllhorn an zukünftigem Wohlstand, an Gesundheit und an Erleichterung versprochen.
Der Intelligente Roboter (IR) hat eine zweifache, erhoffte sowohl wie gefürchtete Funktion: Er ist ein – hoffentlich willfähriges – Werkzeug, aber wenn man ihn autonomisiert, also ihm zu viel Freiheitsgrade zugesteht, wird er möglicherweise zum Bestimmer über das, was wir im Arbeitsprozess, in den er eingebunden ist, tun sollen, wenn die Maschinerie durch Optimierungsalgorithmen beginnen sollte, die Ziele selbst festzulegen.
9.2.2 | Intelligente Roboter sind keine Subjekte und sollten es auch nicht werden |
Die Annahme, dass IRs eines Tages (genuine) Subjekte mit Zielsetzungen sein könnten, die durch unüberwachtes massives Lernen entstehen und die uns, da wir ihr Zustandekommen nicht mehr verfolgen können, als eigenständig vorkommen müssten, verwechselt Simulation (oder besser Mimikry) mit genuiner Erzeugung kognitiver Leistungen. Die sicher bewundernswerte Leistung des Alpha-Go-Computers,9 der durch Spielen gegen sich selbst seine Strategien verbessern kann, indem er die Masse an taktischen Spielsituationen durch Mustererkennung klassifiziert und dadurch sein selbst erzeugtes Repertoire erweitert, ahmt den menschlichen Spieler nach, der ja auch durch Spielen lernt. Trotzdem ist dies noch keine kognitive Leistung, denn viele Kritiker aus der analytischen Philosophie haben gezeigt, dass reine Symbolmanipulation noch kein Denken im menschlichen Sinne darstellt.10 Man könnte auch sagen: Geschwindigkeit (der Rechenprozesse) und enorme Kapazitäten sind noch keine Hexerei.
Daher dürfte es bis zum (Selbst-)Bewusstsein der eigenen Genealogie und der eigenen Endlichkeit bei der Entwicklung eines IRs ein sehr weiter Weg sein, falls er überhaupt beschritten werden könnte und dies als moralisch wünschenswert erscheint. Sicherlich kann ein Intelligenter Roboter im vorangehend dargestellten Sinne Erfahrungen machen, aber er kann daraus nur in dem Umfang lernen, den die Programmierung und das ihm präsentierte Datenmaterial zulässt. Diesen Umfang selbst kann ein Roboter, der auf einem Von-Neumann-Rechner basiert (einschließlich Sensorik und Motorik), jedoch nicht verändern, auch wenn er im Netz auf „Datensuche“ gehen kann.11 Denn Subjekt der Verantwortung zu sein, hieße auch die Fähigkeit zur Selbsttranszendenz zu besitzen, also z. B. die Fähigkeit, Metadiskurse über Schuld und Verantwortung zu führen und eine Ich/Nicht-Ich-Differenz konstatieren zu können, ganz abgesehen von Gefühlen und Stimmungen.
Wenn man also danach fragt, ob solche artifiziellen „Subjekte“ Rechte und Pflichten haben könnten, kann man dies klar verneinen, da es sich um falsche Zuschreibungen handelt.12 Abgesehen davon, dass diese Diskussion in der Philosophie rein hypothetisch ist,13 ist es ohne eine bisherige Klärung, welche Bewusstseinsgrade Intelligente Roboter dereinst entwickeln könnten, einfach müßig, über einen Anspruch auf Achtung der Autonomie von Robotern, über einen Anspruch auf Toleranz und Respekt oder gar über ein Zubilligen von Verantwortung (einschließlich Sanktionen) zu diskutieren. Da Intelligente Roboter keine Subjekte sind oder wir aus guten moralischen Gründen nicht wollen können, dass sie eines Tages Subjekte werden, sollte man sie auch nicht prospektiv als Subjekte von Verantwortung ansehen.
9.2.3 | Verantwortung für Roboter – Fragen |
Nehmen wir an, dass jetzt schon oder in naher Zukunft Roboter mit folgenden Eigenschaften gebaut und eingesetzt werden könnten:
Durch programmierte Adaptionsmöglichkeit sind sie fähig, aus sensorischen, netzbasierten und zur Verfügung gestellten Daten Muster zu bilden und hinsichtlich einer gestellten Aufgabe zu lernen, d. h. eine Verbesserung der Performanz hinsichtlich vorgegebener Kriterien zu erreichen. Sie stellen dann eine lernende Maschine dar.
Dadurch können sie auch selbstständig nach weiteren Daten in der vorhandenen Vernetzung suchen und in einem vorgegebenen Rahmen die Suche nach weiteren Trainingsmengen erweitern (z. B. wie bei Big Data).
Sie verfügen über interne und externe Aktorik und Sensorik und können deren Sensibilität und Spezifität adaptiv im vorangehend genannten Rahmen selbst modifizieren.
Sie besitzen humanoides Aussehen (Oberfläche) und können humanoide Verhaltensmuster wie Zuwendung und Gefühle simulieren.
Wie soll und kann man mit solchen Robotern umgehen? Im Laufe der Diskussion um diese Fragen haben sich zwei Stränge der sogenannten Roboterethik herausgebildet.
Man kann sich fragen, ob der Einsatz von Intelligenten Robotern (IR) bereits eine success story ist oder erst eine Projektion. Es gibt zweifelsohne viele Bereiche, in denen die Roboter ihre Käfige als einarmige Handhabungssysteme längst verlassen haben und nunmehr als verteilte Systeme einsatzfähig sind. Das gilt sicherlich auch für die sich immer noch in stürmischer Entwicklung befindenden Produktionsroboter, die mittlerweile integriert in modernen Produktionsanlagen – Stichwort Industrie 4.0 – zu finden sind. Serviceroboter werden bereits für Haushalt, Zustelldienste, Health Care und Altenpflege angeboten. Letztlich stellen auch Smart Homes und (teil-)autonome Fahrzeuge Roboter dar.14 Man könnte in Erweiterung des Roboter-Begriffs auch Netzwerkroboter wie Suchmaschinen, Bots, Trolle und Malware nennen. Sinnfällig erscheinen uns Außenweltroboter für gefährliche, durch Menschen nicht oder schlecht durchzuführende Arbeiten wie in der Raumfahrt, beim Bergbau, bei der Landwirtschaft, in der Lagerhaltung oder gar beim militärischen Einsatz des Minenräumens. Ob Therapieroboter und Chirurgie-Roboter schon Roboter sind, inwieweit sie schon teilautonom sind oder eher fernbediente, lediglich unterstützende Handhabungssysteme darstellen, sei dahingestellt. Der Nanoroboter ist jedenfalls noch Zunftsmusik.
Die Debatte um Militärroboter wie Drohnen, autonome Mobilität von Kampfpanzern, Kampfroboter, intelligente Munition und autonome Waffen ist hingegen heftig im Gange.15 Auch im Bereich des edutainment, des Einsatzes im Unterricht, auch im Hinblick auf augmented reality zeigt die Debatte, dass ethische Fragen virulent werden.16 Schließlich wird auch die Frage diskutiert, ob Sex-Roboter möglich und sinnvoll sein könnten.17 In all den genannten Beispielen ist der Umgang mit den Datenflüssen, die solche Anwendungen steuern, anhand derer sie lernen, und der Umgang mit solchen Datenflüssen, die sie wiederum erzeugen, ein weitgehend ungeklärtes Thema.
Hier haben sich in den letzten Jahren die Fragen der Roboterethik ergeben, die man so zusammenfassen könnte und für die – bei allem Risiko eines solchen Unterfangens – auch eine kurze Antwort gegeben werden soll:
1. Gibt es besondere normative Anforderungen an das Handeln mit Robotern (Design, Herstellen, Programmieren, Datenhandling, Benutzen, Entsorgen)?
Diese Anforderungen ergeben sich aus der Wirkmächtigkeit eines eingesetzten Systems. Bei besonderen Wirkungen (z. B. bei Kernwaffen) sind wohl ganz besondere Maßnahmen beim Umgang erforderlich. Dies gilt auch für Roboter (z. B. Käfige bei Fertigungsrobotern).
2. Gibt es eine besondere Verantwortung für die Folgen des Einsatzes von Robotern?
Die Verantwortung liegt sowohl bei den Herstellern wie bei den Nutzern, nie beim Roboter. Beispiel: Selbstfahrende Fahrzeuge, Autopilot etc. müssen so beschaffen sein, dass der Mensch jederzeit die Kontrolle übernehmen kann. Ansonsten gilt, was für die Nutzung jeder Maschine gilt: Der Nutzer ist für die Folgen des Einsatzes einer Maschine, die er für seine Zwecke nutzt, verantwortlich. Für die Folgen, die sich aus fehlerhafter Herstellung ergeben, trägt der Hersteller die Verantwortung.
3. Wie weit darf man die sogenannte Autonomie treiben? Soll es je einen entscheidungsersetzenden Einsatz geben?
Roboter sollten nie befähigt werden, im Off-the-loop-(ExL-)Modus zu arbeiten, weil sonst die Verantwortungsdiffusion zu groß wird. Das würde bedeuten, dass z. B. der Hersteller eines autonomen Roboters, über den keine Kontrolle mehr möglich ist, für alle Folgen dieser autonomen Entscheidungen des Systems haften müsste.
4. Wie weit darf man die Simulation humanoider Verhaltensmuster bei Robotern treiben, die im Alltag, in zuwendungsersetzender Absicht oder im Pflegebereich eingesetzt werden?
Es muss klar erkennbar bleiben, dass es sich um eine Maschine handelt. Die Gefahr der emotionalen Bindung an Systeme, die humanoide Verhaltensweisen simulieren können, ist sehr hoch und, besonders bei Kindern und alten Menschen, als Tamagochi-Effekt18 bekannt geworden. Die Folgen dieser emotionalen Bindungen sind in Hinsicht auf das verantwortliche Handeln der dieser Bindung unterworfenen Personen ethisch bedenklich.
5. Müssen Roboter nicht so designt werden, dass sie ohne großen Schaden ersatzlos aus dem Verkehr gezogen werden können, wenn sich herausstellt, dass ihr Einsatz ein Fehler war oder die Benutzung zu nicht akzeptablen Folgen geführt hat oder führen wird?
Es hat sich gezeigt, dass diese Fragen grundsätzlich den Umgang mit Daten berühren, die wir zum einen Robotern zur Verarbeitung, zur Steuerung und für Lernprozesse eingeben und deren Akquisition wir durch Roboter zulassen, und die wir zum anderen als Betreiber, Benutzer oder Betroffene von Robotern erhalten.
Daraus kann man getrost schließen, dass es Unfug ist, einen Intelligenten Roboter als Kollegen zu konzipieren, auch wenn er unsere Arbeit erleichtert und uns viel Arbeit abnimmt. Einen Roboter, der seinen eigenen Nutzer ersetzt, sollten wir deshalb nicht bauen.
Ohne dies weiter vertiefen zu können,19 möchte ich an dieser Stelle eine klare Position einnehmen: Unabhängig von der Frage, ob wir eines Tages solche Roboter werden bauen und nutzen können, plädiere ich für ein Verbot der Herstellung solcher Systeme. Die Begründung läuft analog zum Verbot von Chimären, das die „Herstellung“ von Zwitterwesen zwischen Mensch und Tier untersagt.20 Zum einen wäre der Unterschied zwischen Mensch und Maschine verwischt, was der Begründung der Menschenwürde die Grundlage entzöge, und zum anderen könnten wir für die „Handlungen“ solcher Systeme sowohl als Erbauer als auch als „Halter“ keine Verantwortung mehr übernehmen.
9.2.4 | Verantwortung für Roboter – Antworten |
Zunächst wäre jedoch zu fordern, dass es beim Einsatz von IRs keine Verantwortungslücke geben darf. Unter einer Verantwortungslücke versteht man21 eine Situation, in der die Verantwortung für eine negative Folge einer Aktion eines maschinellen Systems von keiner Person übernommen werden kann oder muss. Es gibt also kein feststellbares Subjekt der Verantwortung. Es gelten hierfür drei Bedingungen:
1. Es bestand kein Vorsatz, das System so zu programmieren, zu trainieren, einzurichten oder zu bedienen, dass die Aktionen des Systems und deren Folgen bestehende Regeln oder Gesetze verletzen würden. Die Unvorhersehbarkeit autonom agierender Systeme kann unter Umständen zu solchen Verletzungen führen.
2. Es war nicht vorhersehbar, dass der Einsatz des Systems zu einer solchen Regelverletzung führen würde.
3. Ab dem Zeitpunkt, als der Einsatz des Systems gestartet wurde, bestand keine Kontrolle mehr über das System.
Wenn eine solche Verantwortungslücke auftritt, sind einige Bedingungen des verantwortlichen Handelns verletzt wie die Möglichkeit, eine Absicht des Subjekts bewusst entwickeln zu können und die kausale Kontrolle und die Folgen des Geschehens verstehen, abschätzen und moralisch beurteilen zu können.22 Es besteht die Vermutung, dass die wissentliche Herstellung von Bedingungen, die solche Kriterien für Verantwortungszuschreibung verletzen, durch die Herstellung autonomer Systeme ebenfalls wissentlich in Kauf genommen wird. Wenn jedoch niemand für die Fehlhandlungen solcher Systeme Verantwortung übernehmen kann, dürfen solche Systeme auch nicht eingesetzt werden.
Denn nach landläufiger Rechtsauffassung ist Vorsatz durch Wissen und Wollen der Folgen gekennzeichnet, bewusste Fahrlässigkeit durch Wissen, aber Nicht-Wollen der Folgen, und sogenannte unbewusste Fahrlässigkeit durch ein Nicht-Wissen der Folgen und daher vermutlich auch Nicht-Wollen.23 Das Grundproblem der Technikfolgenabschätzung geht über diese rechtlichen Bestimmungen hinaus, indem es zwischen gewollten und nicht gewollten, absehbaren und nicht absehbaren Nebenfolgen von Technikeinsatz in diesen vier Kombinationen unterscheidet. Die Moralisierung des Nichtwissens spielt hier eine Rolle, denn auch vorher weder absehbare noch undenkbare Folgen können durchaus Gegenstand der Verantwortung sein.
Nimmt man nämlich die Pflicht zum Erwerb des notwendigen Wissens hinzu und weiß man um die Nichtvorhersehbarkeit von Aktionen autonomer Maschinen, dann sind auch nicht absehbare Folgen eines Einsatzes durchaus nach dem Vorsorgeprinzip moralisch bewertbar und können somit Gegenstand von Verantwortung sein.24
Des Weiteren wäre als Konsequenz zu fordern, dass der Gebrauch von Robotern nicht dazu führen darf, Entscheidungen an ihn zu delegieren, die dem Nutzer insofern als autonom erscheinen müssen, da sie nicht mehr durch menschliche Nutzer nachgeprüft, revidiert oder verhindert werden können.25 Die Nachprüfbarkeit erfordert hier, dass es kein unüberwachtes Lernen geben darf, da die nicht nachvollziehbaren Ergebnisse dieses Lernprozesses falsch interpretiert werden können und eine Genuinität suggerieren, die die Maschine nicht besitzt. Daher darf es auch keine falschen Zuschreibungen geben, z. B., dass eine Maschine einem menschlichen Nutzer gegenüber suggeriert, ebenfalls ein Mensch zu sein oder in genuinem Sinne wie ein Subjekt handeln zu können.
Man könnte diesen Abschnitt pragmatisch so zusammenfassen: Roboter müssen so designt sein, dass deren Nutzer, die sie in Gang setzen und steuern, wie auch deren Erbauer immer noch verantwortlich handeln können. Das bedeutet, dass man für eine Ethik des Designs, des Einsatzes und des Umgangs das Prinzip der Bedingungserhaltung verantwortlichen Handelns in Anschlag bringen kann, sodass nicht der Fall eintritt, dass Nutzung sowie Nichtnutzung zu Konsequenzen führen, die in der jeweiligen Moral der Betroffenen in gleicher Weise inakzeptabel wären. Denn dies wäre genau die Situation eines moralischen Dilemmas.
Bevor wir dieses Prinzip näher erläutern, sei auf die komplizierte Lage verwiesen, in der sich die Bestimmung der Verantwortung beim Einsatz von Robotern bewegt. Tabelle 9.1 zeigt für die verschiedenen Akteure, wie die Bestimmungen von Subjekt, Objekt, Instanz, Zeithorizont und Gründen der Verantwortung bis hin zu möglichen Sanktionen aussehen könnten. Es sind die Akteure, welche die Zwecksetzung und das Design bestimmen, die den Roboter bauen, ihn programmieren, spezifizieren und testen, die ihn einsetzen, und letztlich auch diejenigen, die vom Einsatz betroffen sind. Diese Tabelle kann nicht vollständig sein, bietet aber möglicherweise eine Diskussionsfläche für konkrete Bestimmungsversuche.26
Tabelle 9.1 Akteure und Verantwortungszuschreibung beim Handeln durch Roboter
Generell dürfte gelten, dass bei einer technischen Entwicklung wie bei Intelligenten Robotern die Verantwortung bei Einzelpersonen oder bei Gruppen, bei der Firma und/oder den Betreibern liegen muss, niemals bei den Robotern, seien es nun Systeme, die in ein Gesamtsystem integriert sind, oder solche, die als separat erkennbare Systeme „agieren“. Der Gegenstand der Verantwortung, also worauf sich die Verantwortung bezieht, erstreckt sich über die Funktionsfähigkeit, die Sicherheit und Zuverlässigkeit, die Schadensfreiheit beim Einsatz, die Verträglichkeit für die Betroffenen, die Nachhaltigkeit (einschließlich Rückbaubarkeit und Entsorgung) bis hin zur Unverletzlichkeit der Beteiligten und der Zuverlässigkeit auf absehbare Zeit. Die Betroffenen und danach folgend die Institutionen, die ihre Ansprüche und Rechte durchsetzen können, stellen dann die Instanz dar. Die Gründe für die Verantwortlichkeit liegen in den in der Gemeinschaft akzeptierten Normen (Regeln, Gesetze) und moralischen Überzeugungen, z. B., dass das Vorsorgeprinzip (Precautionary Principle) Vorrang vor dem Verursacherprinzip (Polluter Pays Principle) haben soll.27
Auch hier ist der Zeithorizont kaum abzusehen, weil man über die Funktionsdauer künftiger Roboter keine Vorhersagen machen kann. Interessant dürfte die Forderung sein, abzusehende Irreversibilitäten bei der Installation solcher Systeme zu vermeiden. Die Sanktionen sind eher wieder klassisch: Sie reichen von der Kompensation für die Schädigung der Betreiber selbst bis hin zur Haftung bei Fremdschädigung (BGB) oder bei Straftaten zur Bestrafung (StGB) sowie zu Vertrauensverlust und zu ökonomischen Verlusten.
9.3 | Bedingungen verantwortlichen Handelns: Smart Ethics |
9.3.1 | Mögliche negative Folgen des Einsatzes von Intelligenten Robotern |
Bei sogenannten autonomen Waffen wird befürchtet, dass solche Systeme außer Kontrolle geraten. Hier gibt es, wie in Abschnitt 6.5.2 schon erwähnt, eine Unterscheidung,28 die für die Robotik verallgemeinerbar und damit auf „zivile“ Systeme übertragbar ist: Systeme in-the-loop (IL), Systeme on-the-loop (OL) und Systeme out-of-the-loop (ExL). Wir hatten festgestellt, dass alle bisherigen Intelligenten Roboter im weiteren Sinne vom Typ IL oder OL, aber nicht ExL sind, d. h., dass sie noch an „der Leine“ sind.
Die möglichen oder befürchteten negativen Folgen der Aktionen von Robotern, die sich on-the-loop befinden, könnte man zumindest theoretisch so zusammenfassen: Auch falsche Entscheidungen werden letztlich als Optionsauswahl aus endlichen n-fachen Alternativen getroffen. Falsche Aktionen können aufgrund falscher Entscheidungen, falscher Datenlage, fehlerhafter Sensorik, falscher Programmierung oder unvollständiger Spezifizierung (Training) vorkommen. Eine Aktion eines Roboters bedeutet zum einen die Erzeugung von Informationen und zum anderen physikalische Wirkungen. Eine falsche Aktion bedeutet, dass die Aktion unerwartete oder nicht erwünschte Folgen hat. Beide, Informationen wie physikalische Wirkungen, haben Folgen, die dann für die Umwelt im Sinne technischer organisatorischer Systeme, in denen sich der Roboter befindet, nicht adäquat oder gar schädlich sind oder den dort geltenden Regeln widersprechen. Falsche Aktionen können aufgrund von unautorisierter Fremdsteuerung (Hacking) auftreten. Man wird dies nicht immer verhindern können. Falsche Aktionen können auch aufgrund von Fehlfunktionen auftreten, die durch Verschleiß und Altern sowohl bei Hardware wie bei Software ausgelöst werden.
Viele Befürchtungen gehen nun dahin, dass beim Produktionsprozess Verletzungen bis hin zur Tötung von Personen durch Aktorik vorkommen können, dass Befehle verweigert oder falsch durchgeführt werden oder dass Personen falsch identifiziert werden. Des Weiteren werden unerwünschte Lernergebnisse befürchtet, wie sie bei Chat-Bots schon demonstriert wurden.29 In der Produktionstechnik könnte ein solcher Effekt schleichend zu Qualitätsverlusten oder Kostenanstiegen führen.
Auch ist an Wirkungen gegen Institutionen zu denken: Usurpation von existierenden Vernetzungen, Schaltung von unerwünschten neuen Vernetzungen, Aufbau von unerwünschten Backdoors oder die Unmöglichkeit der Abschaltung solcher Systeme ohne schwere Schäden oder gravierende Nachteile für Benutzer. Denkbare Aktionen gegen eine Gesellschaft könnten sich in der Abhängigkeit der Infrastruktur von der Steuerung durch solche intelligenten Systeme zeigen. Die Zeitkonstanten zur Substitution von denkbaren künstlich intelligenten Steuerungen organisatorischer Prozesse durch menschliche Maßnahmen (Umschalten auf „Handsteuerung“ bei OL-Modus) könnten so groß werden, dass Fehlentwicklungen nicht mehr korrigiert werden. Es sind auch kollektive Effekte vernetzter Computer denkbar, wie sie zuweilen beim Hochfrequenzhandel auftreten.
Die vorangehend erwähnte Verantwortungslücke zeigt sich daher nicht nur bei autonomen Waffen. Dort wird sie allerdings am deutlichsten sichtbar. Autonome Systeme bilden als lernende Systeme Muster (sogenannte Attraktoren) in emulierten neuronalen Netzen. Diese Muster bestimmen dann das Verhalten des Roboters. Im Prinzip ist dieser Vorgang deterministisch und hängt von der Reihenfolge der eingegebenen bzw. akquirierten Daten ab. Dieser Vorgang ist jedoch weder prognostizierbar noch aus praktischen Gründen nachprüfbar, weil die Nachvollziehbarkeit um Größenordnungen mehr Kapazität bindet, als der Rationalisierungseffekt durch den Einsatz eingespart hätte. Die Aktionen des Roboters erscheinen dann quasi autonom und die Versuchung ist sehr groß, solchen Ergebnissen eine gewisse Objektivität zuzuschreiben. Den Roboter folglich als Verursacher einer eingetretenen unerwünschten Nebenfolge zu identifizieren, ihn also „verantwortlich“ zu machen, liegt nahe: Der Zauberbesen ist schuld.
Nun sind Roboter, wie vorangehend diskutiert, keine Subjekte der Verantwortung. Daher sind an Gestaltung und Betrieb von Robotern besondere Anforderungen zu stellen, die sich nicht nur auf gesetzliche Maßnahmen oder Regeln beschränken, sondern eine ethische Grundlage haben müssen.
9.3.2 | Asimovs Irrtum |
Die Befürchtungen, die wir im Folgenden diskutieren, sind deshalb etwas akademisch, denn sie beziehen sich dann in der Regel auf die Projektion, dass Roboter im Modus ExL betrieben werden könnten. Dies ist, wie gesagt, Zukunftsmusik, deren Spielplan wir nicht abschätzen können und – so meine Position – die wir bei der Technikgestaltung auch nicht in den Spielplan mit aufnehmen sollten.
In seinem Science-Fiction-Roman: „I, Robot“ formulierte Isaac Asimov (1920 – 1992) sogenannte Robotergesetze, die er später um das nullte Gesetz ergänzte. Dies sind normative Sätze im Sinne einer Moral und sie gehen davon aus, dass Roboter eines Tages entscheidende und handelnde Subjekte sein können. Kann und muss man sie im Kontext der Arbeit dann als „Kollegen“ behandeln?
0. „Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.“30
Wenn man die vorangehend genannten Einwände gegen die Möglichkeit von Robotern als agierende Subjekte ernst nimmt, dann sind diese Robotergesetze bedeutungslos, weil sie lediglich formulieren, was wir bei Robotern nicht wollen. Sie können höchstens als Hinweis für Roboterdesigner (Programmierer und/oder Trainer) dienen, was man mithilfe von Robotern mittelbar nicht tun darf. Man könnte außerdem eine ganze Reihe von Paradoxien aus diesen Robotergesetzen konstruieren, die wiederum Ausgangspunkte für neue Science-Fiction-Erzählungen liefern könnten.
9.3.3 | Was sollen wir tun? |
Die in der Überschrift gestellte Frage31 verlangt zuerst, uns klarzumachen, was wir wollen. Sollen Intelligente Roboter Sklaven, intelligente Mitarbeiter oder zukünftige Herrscher sein? Aus den bisherigen Ausführungen dürfte plausibel geworden sein, dass wir nur solche Roboter bauen sollten, die weder eine Verantwortungslücke suggerieren noch erzeugen und die Benutzer und Betreiber nicht in dilemmatische Situationen führen, in denen sie nicht mehr verantwortlich handeln können. Die Lernprozesse sollten kontrollierbar bleiben und die Einsatzfolgen, auch für die Arbeitsorganisation und Prozessketten, sollten wir nach dem Stand der Technik absehen können.
Daher empfiehlt es sich, nicht eine Ethik für Roboter zu entwerfen, sondern eine Ethik für Menschen, die Roboter bauen und nutzen. Diese Ethik sollte dem Prinzip der Bedingungserhaltung verantwortlichen Handelns genügen:
„Handle so, dass die Bedingungen der Möglichkeit des verantwortlichen Handelns für alle Beteiligten erhalten bleiben.“32
Daraus folgt, dass man nur nach solchen Normen handeln sollte, mit denen alle von dieser Handlung Betroffenen im Hinblick auf ihre weiteren Handlungsmöglichkeiten und deren ethische Relevanz, wenn auch nicht mit allen faktualen, einzelnen Folgen, jedoch prinzipiell einverstanden sein können und noch verantwortlich handeln können.
Im Folgenden diskutieren wir einige dieser Bedingungen und wenden sie auf die Interaktion Mensch – Roboter an. Das Gesagte gilt zwar ganz allgemein, demnach aber eben auch für alle arbeits- respektive tätigkeitsbezogenen Handlungen mit Robotern. Da Roboter heute als Werkzeuge betrachtet werden können, gibt es neben der Selbstverständlichkeit, mit seinen Werkzeugen pfleglich umzugehen, keinen Anlass, eine besondere Ethik des Handelns an Robotern zu entwickeln.
Eine der Bedingungen verantwortlichen Handelns besteht zunächst darin, dass man die Frage nach dem Subjekt der Verantwortung beantworten kann. Das Subjekt muss moralisches Urteilsvermögen und Selbstbewusstsein haben. Es muss entscheidungsfähig sein und eine echte Wahlfreiheit haben. Hinzu kommen die Fähigkeit zur Absicht und zur Einsicht in die Folgen sowie die kausale Kontrolle.33 Es ist klar, dass ein heutiger Intelligenter Roboter diesen Bedingungen nicht genügt und er kein Subjekt der Verantwortung sein kann. Für die Akteure beim Herstellen und Nutzen von Robotern muss jedoch eine echte Wahlfreiheit bestehen: Sie müssen sich entscheiden können, ob und was sie bauen oder nicht, ob sie als Benutzer abschalten können oder nicht, ohne in Zwangssituationen zu geraten.
Die Autonomie des personalen Subjekts muss sich aus der Freiheit bestimmen, die einerseits eine „Freiheit von . . .“ ist und andererseits auch eine Willensfreiheit im Sinne einer menschlichen „Freiheit zu . . .“. Dabei ist eine möglichst weitgehende Unabhängigkeit von äußeren und inneren Einflüssen und Bestimmungsfaktoren noch nicht hinreichend. Erst Willensfreiheit als die „Freiheit zu . . .“ ist zusammen mit der personalen Autonomie Voraussetzung für die Möglichkeit des Subjekts, Verantwortung wahrnehmen zu können.
Daher ist so zu handeln, dass als Bedingung verantwortlichen Handelns diese Autonomie allen Beteiligten möglich sein muss. Das bedeutet, dass sich ein Nutzer von Robotern uneingeschränkt an seinen eigenen Prinzipien, Werten und deren Prioritäten orientieren können muss und der Betrieb des Roboters gegenüber anderen Menschen verantwortet werden kann. Das schließt auch die Haftung des Betreibers mit ein. Dazu gehört, genügend Zeit für Entscheidungen zu gewähren und zuzulassen, dass die Akzeptanz pluraler Wertesysteme möglich ist. Es muss offen diskutiert werden können, wo der gemeinsame Nenner liegt.
Eine eher praktische Bedingung des verantwortlichen Handelns besteht darin, dass eine Instanz existieren muss, d. h. entweder eine Person oder eine Institution, die selbst handlungsfähig ist. Sie muss anrufbar sein und sie muss fähig sein, Sanktionen durchzusetzen. Deshalb dürfen keine Roboter gebaut werden, ohne dass geklärt ist, wer für die Performanz des Roboters verantwortlich ist, welche Instanz zuständig ist, wer für Schäden haftet und wie mit den vorangehend genannten Datenflüssen umgegangen werden muss.
Da zu den Bedingungen verantwortlichen Handelns auch die zeitliche Dimension gehört, müssen Absicht und Handlungen mit Robotern und deren Folgen in geeigneter Weise zeitlich aufeinander bezogen werden können. Über Absicht, Handlung und Folgen muss fehlendes Wissen prinzipiell und praktisch erwerbbar sein. Mit anderen Worten: Ein Betreiber oder Nutzer eines Roboters muss sich, wie bei jedem anderen technischen Gerät auch, mit den Bedingungen und Folgen des Betriebs vertraut machen können. Eine nicht erklärbare KI34 würde diese Bedingung verletzten.
9.3.4 | Handlungsanleitungen |
Antworten auf die in Abschnitt 9.2.3 gestellten Fragen können nun aufgrund dieser Überlegungen etwas genauer skizziert werden. Besondere normative Anforderungen an das Handeln mit Robotern ergeben sich vor allem beim Design: Unüberwachtes Lernen führt zu Ergebnissen, die wegen ihrer Intransparenz die Forderung nach dem Erwerb des notwendigen Wissens unterlaufen.
Eine besondere Verantwortung für die Folgen des Einsatzes von Robotern hat nicht nur der Benutzer, sondern auch der Designer und der Programmierer. Zum einen muss der Programmierer darauf achten, dass bei der Benutzung keine Zwangssituationen (Dilemmata) entstehen, die den Benutzer zu bestimmten Handlungen zwingen, die er nicht verantworten kann oder will.
Da ein Programm letztlich eine gewisse Theorie über den Gegenstandsbereich, in dem es operativ wirken soll, darstellt,35 ist der Programmierer zusammen mit dem Modellbildner für die Qualität des Modells der „Welt“, in dem ein System oder ein Roboter agieren soll, verantwortlich. Dies gilt a fortiori für die Programmierung von ganzen Systemen und Prozessabläufen. Somit trägt der Modellbildner eine gewisse Verantwortung für den potenziellen Einsatz, aber auch für das Vorbedenken von dual use, also wofür man das Programm oder den Algorithmus noch einsetzen könnte, z. B. für militärische Zwecke. Die sogenannte Ziel-Mittel-Inversion ist eher geläufig unter der Erfahrung, dass sich ein Instrument im Sinne eines Mittels auch immer andere Verwendungszwecke „sucht“. Deshalb ist auch der potenzielle Missbrauch mit zu bedenken.
Bei der Frage, wie weit man die Entwicklung hin zu einer gewissen Autonomie treiben darf, ist aus vielen Überlegungen schon früh die Überzeugung entstanden, dass es keinen entscheidungsersetzenden Einsatz solcher Systeme geben sollte.36 Es widerspricht auch dem Prinzip der Bedingungserhaltung verantwortlichen Handelns, wenn eine betroffene Person nicht unterscheiden kann, ob sie es mit einer intelligenten Maschine oder einem menschlichen Kommunikationspartner zu tun hat. Das heißt, dass man die Simulation humanoider Verhaltensmuster bei Robotern nicht so weit treiben sollte, dass diese Unterscheidung nicht mehr möglich ist. Denn das suggerierte Verschwinden dieser Unterscheidung könnte ja gegenüber Jugendlichen oder alten Menschen erst recht ein Verkaufsargument sein. Dies gilt nicht nur im Alltag, im Einsatz bei zuwendungsersetzender Absicht oder im Pflegebereich, sondern auch in der Arbeitswelt, also im Produktions- und Dienstleistungsbereich. Auch im Europäischen Parlament sind Resolutionen verabschiedet worden, die in gewisser Weise auf Asimovs Roboterregeln anspielen, aber bereits auch Fragen der Reversibilität, der Autonomie und der Haftung ansprechen. Robotern wird hier definitiv nicht der Status eines biologischen Lebewesens zugesprochen.37
9.3.5 | Roboter und Daten |
Da Roboter durch Daten gesteuert werden, auf Daten reagieren, Daten während des Einsatzes produzieren und aufgrund von Daten lernen, ergeben sich aus dem Gesagten gewisse Analogien zu den Forderungen nach einem Umgang mit Daten, wie sie für den Bereich der Künstlichen Intelligenz diskutiert werden.38 Kursorisch seien einige Aspekte genannt:
Daten, aufgrund deren ein Roboter lernt (einschließlich Trainingsmenge und Teach-in-Prozesse), bestimmen seinen „Lernerfolg“. Hersteller und Benutzer sind dafür verantwortlich, in welchem Datenkontext (analog könnte man sagen: in welchem Framing) sich ein Roboter aufhält, d. h., aufgrund welchen Datenmaterials er seine Muster und seine Verhaltensweisen ausbildet. Deshalb ist unüberwachtes Lernen riskant.
Daten, die Roboter steuern,39 sind immer sicherheitsrelevant und müssen daher vor fremden Einflüssen sorgfältig geschützt werden. Die Diskussion um die noch zulässige Vulnerabilität darf wegen möglicher Nebeneffekte nicht allein durch die Geschäftsmodelle bestimmt werden.
Betriebsdaten von Robotern, also deren Protokolle, lassen Rückschlüsse auf die Prozesse zu, an denen, innerhalb derer und mit denen ein Roboter „arbeitet“. Diese Prozesse können sich z. B. auf geheim zu haltende Verfahren, aber auch auf Aktivitäten von Personal beziehen. Deshalb müssen diese Daten ebenfalls geschützt werden, da sonst das Auslesen und die unerwünschte Analyse von betrieblichen Daten, Produktdaten, Daten aus Arbeitsprozessen etc. durch Dritte möglich wird.
Die drei vorangehend genannten Aspekte gilt es auch bei Daten aus der Umgebung zu bedenken, in der ein Roboter arbeitet, da bei mangelndem Schutz auch hier Schlüsse möglich sind, die nicht nur das informationelle Selbstbestimmungsrecht von Beteiligten tangieren, sondern auch Rückschlüsse auf Intentionen des Einsatzes von Robotern erlauben. Aus solchen Daten können dann gegebenenfalls auch zugrunde liegende Geschäftsmodelle ausgelesen werden.
9.4 | Vorschlag von acht Regeln für den Umgang mit Intelligenten Robotern |
Abschließend sollen acht Regeln (Normen) als Ergebnis einer smart ethics für das Design, den Bau und den Umgang mit intelligenten Robotern in bewusst apodiktischer Form zur Diskussion gestellt werden.
1. Setze Systeme niemals entscheidungsersetzend ein. Auch Roboter dürfen nicht in entscheidungsersetzender Absicht eingesetzt werden.
2. Nihil Nocere – toleriere keinen Schaden gegenüber Benutzern.
3. Beachte, dass legitimiertes Nutzerrecht im Konfliktfall Produzentenrecht unter Wahrung ökonomischer Gerechtigkeit bricht.
4. Baue keine Systeme, die nicht mehr beobachtet, kontrolliert und abgeschaltet werden können.
5. Stelle keine selbstbewusst oder auch nur bewusst autonom agierenden Roboter her und betreibe sie auch nicht (analog dem Chimärenverbot und Verbot von menschlichen Klonen).40
6. Täusche nie durch maschinelles Mimikry ein menschliches Subjekt als Gegenüber vor. Maschine muss Maschine bleiben. Imitation und Simulation müssen erkennbar bleiben. Es muss bei der Mensch-Maschine-Kommunikation allen beteiligten Menschen immer klar sein, dass der maschinelle Kommunikationspartner eine Maschine ist.41
7. Wer die Frage und den Zweck nicht weiß, kann mit der Systemantwort und dem Verhalten eines Roboters nichts anfangen. Gebe deshalb immer den Kontext an.
8. Wer Technik erfindet, herstellt, betreibt oder entsorgt, hat Interessen. Dies ist legitim. Lege deine Interessen redlich offen.
9.5 | Zusammenfassung |
Die Veränderung der Arbeitswelt wird sich aller Voraussicht nach in folgenden Bereichen massiv auswirken: Neue Anforderungen an fachliche Qualifikationen (neue Technologien, neue Werkstoffe, neue Verfahren, neue Strukturen), die Übernahme vieler, aber nicht aller Arbeitsarten durch Roboter sowie neue Qualifikationsanforderungen dazu, wie man mit Robotern umgeht und wie man die Arbeitsteilung zwischen Mensch und Roboter organisiert.
Die Veränderung der Verantwortungsverteilung zwischen Produzenten und Konsumenten, zwischen Akteuren und Betroffenen beim Handeln mit, durch und an Robotern ist Gegenstand unabgeschlossener Kontroversen. Es bestehen nach wie vor massive Bedenken hinsichtlich eventuell negativer Folgen beim Einsatz sogenannter Intelligenter Roboter (IR). Hier wird die Position entwickelt, dass die menschliche Arbeit mit ihren ganzen sozialen, psychologischen und ökonomischen Funktionen, also Teilhabe, Identität und Einkommen, nur dann erhalten werden kann, wenn wir den Verantwortungsbegriff beim menschlichen Individuum belassen und die Zuschreibung der Verantwortung nicht in eine unklar definierte „intelligente“ Robotik hineindiffundieren lassen. Es ist Unfug, eine Ethik in die Maschine „implementieren“ zu wollen.
1 Kornwachs (2018 GUT).
2 Dies ist ein Schluss, der in der formalen Logik nicht erlaubt ist, aber gern verwendet wird. Beispiel: Alle Arbeitslose sind Faulenzer. Bist Du ein Faulenzer, bist Du auch arbeitslos. Formal: Wenn alle A B sind, und B ist gegeben, dann ist auch A der Fall. Der Schluss scheint oft plausibel sein, ist es aber nicht. In den meisten Fällen ist er einfach falsch. Man nennt ihn auch Stammtischschluss, weil an Stammtischen gern so argumentiert wird.
3 Böhle (2021).
4 Böhle (2021).
5 Teile dieses Abschnitts sind modifiziert und aktualisiert entnommen aus Kornwachs (2019 SM).
6 Bloch (1959), Vorwort, S. 1.
7 Dies ist Ausdruck eines gewissen Ingenieurdenkens: Nur was man gebaut hat, hat man auch verstanden. Siehe Steinbuch (1965), Vorwort.
8 Als Stichworte mögen genügen: Prometheus, Pygmalion, Golem, Frankenstein.
9 Dokumentation des Spiels siehe https://de.wikipedia.org/wiki/AlphaGo_gegen_Lee_Sedol.
10 Pars pro toto. Searle (1980, 1987), Penrose (1991) und Weizenbaum (1976).
11 Theoretische Grundlage hierzu vgl. Russell/Norvig (2012).
12 Eine gewisse Analogie findet sich beim Betrachten von Tierfilmen oder -dokumentationen: Musik, Kommentar und Setting sind so gewählt, dass wir menschliche Züge den Tieren meinen zuschreiben zu können. Gleichwohl ändern sich dadurch die kategorialen Unterschiede zwischen Mensch und Tier nicht.
13 Loh (2019), hinreichend begründete Ablehnung bei Weber (2019).
14 Misselhorn (2018), Kapitel II, 3, S. 18 ff.
15 Ebenda, Kap II, 2, S. 155 ff.
16 Wiegerling (2011).
17 Richardson (2016).
18 Das Tamagotchi ist ein 1997 erstmals auf dem Markt erschienenes Elektronikspielzeug aus Japan, das zur Kategorie der virtuellen Haustiere zu zählen ist. Es muss per Knopfdruck gefüttert werden und erheischt permanente Aufmerksamkeit. In vielen Fällen entwickelte die „Fürsorge“ emotionale Bindungen an das Gerät und sogar Suchtcharakter.
19 Loh (2019).
20 Das Embryonenschutzgesetz (ESchG) verbietet vor allem, experimentell hergestellte Kreuzungen zu einem geburtsfähigen Wesen heranwachsen zu lassen, weil damit die Artgrenze zwischen Mensch und Tier und deren unterschiedlich aufgefassten Lebensrechte verwischt und aufgehoben würden.
21 Leveringhaus (2016), insbesondere S. 59 – 88, der sich auf Sparrow (2007) bezieht.
22 Vgl. auch die Diskussion um diese Bedingungen in Abschnitt 5.3.
23 Z. B. https://www.juraforum.de/lexikon/fahrlaessigkeit.
24 Grunwald (2013).
25 Dies zeigte sich schon bei der Diskussion um die sogenannten Expertensysteme Ende der 80er-Jahre. Vgl. Kornwachs (1992CuR).
26 Für einen Überblick über die ethische Diskussion in KI und Robotik siehe Bartneck et al. (2019).
27 Letztlich geht es darum, ob man etwas untersagt, weil es mit einer gewissen Wahrscheinlichkeit Schaden anrichten könnte (eher die Präferenz in Europa), oder ob man strenge Regeln des Gebrauchs anwendet und dann bei Versagen die Verantwortlichen bestraft (eher die Präferenz in den USA).
28 Die Unterscheidung stammt vom United States Department of Defense (2011).
29 Vgl. hierzu ein Microsoft-Chatbot, der sozusagen in schlechte Gesellschaft geriet und in Chats zunehmend rechtsradikale Positionen postete, da er auf die Maximierung der Klickzahlen ausgerichtet war: https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction.
30 Erste Formulierung: Asimov (1960), Ergänzung 1982; vgl. Laßmann (2017).
31 Die sich an Kant anlehnt: „Was sollen wir tun?“ . . . „Was können wir wissen?“ . . . „Worauf sollen wir hoffen?“ Diese drei ersten Fragen finden sich in Kants „Kritik der reinen Vernunft“, A 805 bzw. B 833. Vgl. Kant (1996a, IV), S. 677.
32 Kornwachs (2000 BED).
33 Siehe oben sowie Lenk/Ropohl (1987).
34 Man versteht unter Erklärbarkeit, dass die Gründe für ein von einer KI erarbeitetes Ergebnis (was auch eine Empfehlung oder Unterstützung für eine Entscheidung sein kann) explizit beschrieben werden können und so für den Nutzer nachvollziehbar werden. Ideal wäre Transparenz, d. h., dass jeder Schritt des Algorithmus nachvollziehbar wäre. Dies ist für Fachleute interessant, aber nicht für den Nutzer, der meist Laie ist.
35 Siehe auch Abschnitt 2.2.2. und Abschnitt 2.2.3. Floyd/Züllighofen (1992).
36 Vgl. für Expertensysteme, aber generell übertragbar Kornwachs (1992 CuR).
37 Verlangt wird eine Bewertung der Technologie hinsichtlich der Kriterien „Unversehrtheit, Gesundheit und Sicherheit der Menschen, Freiheit, Integrität und Würde, Selbstbestimmung und Nichtdiskriminierung und den Schutz personenbezogener Daten“, mit Hinweis auf die Charta der Grundrechte der EU. Siehe European Parliament (2017).
38 Rost (2018).
39 Dies bezieht sich auf Roboter, die bei CCC-Aufgaben (= Comand, Control, Communication) in der Regel „in the loop“ (IoL) und „on the loop“ (oL) eingebunden sind.
40 Siehe Embryonenschutzgesetz ESchG § 7 und § 6.
41 Dies entspricht dem 4. Statement bei Pasquale (2020).