6 Die Veränderung der Arbeit durch neue Maschinen
6.1 Erleichterung ist noch keine Erlösung

Frei nach Aristoteles arbeiten wir hart daran, dass wir nachher nicht mehr so hart arbeiten müssen bzw. Muße haben können.1 Die Erfindung der Erleichterung ist ein hartes Geschäft. Das scheint ein schönes Paradox zu sein, aber es löst sich auf, wenn man es in einem zeitlichen Hintereinander betrachtet: Jede Tätigkeit, sich die Arbeit zu erleichtern, ist selbst Arbeit, weil diese Tätigkeit zielgerichtet ist, notwendig erscheint, einen Plan erfordert, wir die Erleichterung auch für andere Arbeitende damit schaffen, also kooperativ und kommunikativ tätig werden, und die Arbeit an der Erleichterung leider anstrengend bleibt. Denn die Prozesse, die wir verbessern oder besser beherrschen wollen, also die Arbeitsgegenstände, sind nach wie vor „widerständig“, wie Karl Marx es nannte, als er die „Arbeit als ein Prozess zwischen Mensch und Natur2 zu beschreiben versuchte. Daher verursachen solche Prozesse bei ihrer Beherrschung Mühe.

Doch die Erleichterung ist noch nicht die Erlösung von Arbeit. Selbst wenn Aristoteles Folgendes schreibt:

„Denn freilich, wenn jedes Werkzeug auf erhaltene Weisung, oder gar die Befehle im Voraus erratend, seine Verrichtung wahrnehmen könnte, dass die Statuen des Dädalus oder die Dreifüße des Hephästos getan haben sollen, von denen der Dichter sagt, dass sievon selbst zur Versammlung der Götter erschienen; wenn so auch das Weberschiff von selbst webte und der Zitherschlägel von selbst spielte, dann brauchen allerdings die Meister keine Gesellen und die Herren keine Knechte.“3

Zum einen ist zu bemerken, dass Aristoteles im Kontext dieser Stelle den Sklaven als ein menschliches Werkzeug, also ein Werkzeug, das ein menschliches Wesen ist, beschreibt, welches man damals besitzen und worüber man verfügen konnte. Es zeigt aber auch zum anderen, dass selbst wenn wir eine gewisse Automatisierung und Ersetzung der Arbeit hätten, dass dann der Werkmeister zwar kein Geselle oder der Herr keinen Sklaven mehr bräuchte, aber Werkmeister oder Herr übrigbleiben, um eben die Arbeit in Gang zu setzen, sie zu befehlen und sie vielleicht auch zu stoppen. Das bedeutet aber, dass selbst die Ersetzung der körperlichen Arbeit durch eine Maschine lediglich eine Erleichterung, aber noch keine Ersetzung von Arbeit darstellt. Sie verändert sich lediglich und sie wird nicht mehr von Gesellen und Sklaven getan, sondern in anderer Form vom Werkmeister oder Herrn selbst.

Wir verdrängen diese Erkenntnis, indem wir so reden, als würde die Maschine für uns arbeiten oder die Arbeit übernehmen. Würde eine wirkliche Auflösung oder Erlösung von der Arbeit erst dann mit der Automatisierung der Automatisierung bzw. mit der Steuerung der Steuerung möglich sein? Das würde bedeuten, dass die KI uns insofern die Arbeit des Werkmeisters oder des Herrn abnimmt und die Steuerung einer Maschine durch die KI selbst übernommen wird.

Hierzu gibt es zwei Sichtweisen. Zum einen: Wer steuert, bestimmt die Ziele. Eine Entität, die steuert, führt Ziele aus. Wir würden als Subjekte das „Wer“ durch das „Was“ ersetzen, also die Bestimmung der Ziele bei dem Arbeitsprozess aus der Hand geben und sie von einer Maschine, die diesen Arbeitsprozess durchführt, und einer Maschine, die diese durchführende Maschine steuert, vorgeben lassen. Wir überlassen also der Maschine zu entscheiden, ob das Ziel unserer Arbeit für uns oder für die Maschine und den gesamten Prozess vernünftig ist oder nicht. Würden wir das wirklich wollen?

Die andere Sichtweise besteht darin, dass wir in einen regressus ad infinitum geraten: Wir müssen ja die Maschine, die die Maschine steuert, also die Automatisierung der Automatisierung, auch erst einrichten. Das ist Arbeit, diese hat ein Ziel. Das heißt, dass die Automatisierung der Automatisierung ebenfalls ein von uns vorgegebenes, wenngleich übergeordnetes Ziel aufweisen muss. Wir können so weiterfahren und eine Steuerung der Steuerung der Steuerung bauen etc. etc. . . . So gesehen werden wir die Arbeit nicht los, aber sie verändert sich bei jeder Stufe in ihrem Inhalt.

6.2 Die Arbeit der Maschinen: Erleichterung – Ersetzung – Verdrängung?

Seit den demografischen Studien, die in Deutschland etwa ab Mitte der 80er-Jahre begannen, ist die jedem arbeitenden Menschen bekannte Abnahme der menschlichen Leistungsfähigkeit in den Blickwinkel beschäftigungsstrategischer Überlegungen geraten. Bereits im Alter von 30 Jahren beginnen bestimmte Fähigkeiten nachzulassen, welche die gesamte Leistungsfähigkeit zu beeinträchtigen beginnen (vgl. Bild 6.1).

Bild 6.1 Kompensation der Abnahme der menschlichen Leistungsfähigkeit4 durch Erfahrung, ständiges Lernen, durch Wissen und durch Roboter?5

Wenn sich durch die demografische Verschiebung der Altersverteilung nach oben die Anzahl der erwerbstätigen Menschen im Verhältnis zu den Versorgungsempfängern (Pension, Rente oder Sozialhilfe etc.) verringert, dann läuft man auf einen Mangel auf der Angebotsseite im Arbeitsmarkt zu. Vor allem scheiden dann überproportional viele Know-how-Träger mit entsprechender Erfahrung aus dem Erwerbsleben aus.

Zur Kompensation hat man mehrere – nicht technische – Möglichkeiten:

Image       stimulierter Zuzug von Fachkräften durch Green Card oder Modelle der Anwerbung ausländischer Arbeitskräfte

Image       Integration und berufliche Ausbildung von Flüchtlingen

Image       langfristig wirkende Anreize zur Hebung der Geburtenrate

Image       Verlängern der Lebensarbeitszeit mit Kompensationserfordernissen

Uns interessiert hier im Hinblick auf die technischen Möglichkeiten die Kompensation des Abfalls der menschlichen Leistungsfähigkeit im Alter, wie in Bild 6.1 gezeigt: Die Abnahme kann kompensiert werden durch das, was man unter Enhancement, also der Verbesserung der körperlichen und mentalen Leistungsfähigkeit durch technische Hilfsmittel versteht.6

Nun ist jedes Werkzeug in gewisser Weise ein Mittel zum „Enhancement“, frei nach der Einsicht von Ernst Kapp (1808 – 1896), dem Erzvater der Technikphilosophie, wonach ein Werkzeug eine Organprojektion nach außen darstelle und die jeweiligen Wirkungsmöglichkeiten des Organs in Intensität, Reichweite etc. verstärke.7 Allerdings kannte Ernst Kapp den Rechner noch nicht. Es liegt nahe, den Computer als Organprojektion des menschlichen Gehirns zu verstehen und damit die Erweiterungsmöglichkeiten menschlicher geistiger Tätigkeit zu studieren.

Das Werkzeug verlängert und verstärkt die Wirkung der menschlichen Handlung und mit dem zuweilen als „Denkzeug“8 betitelten Computer verstärkt auch der Computer die menschlichen kognitiven Fähigkeiten, vom bloßen Rechnen bis zur Planung. Die unterstützende Potenz des Werk- und Denkzeugs zieht nach aller technikgeschichtlichen Erfahrung die Entwicklung zur Verbesserung nach sich. Dies hört sich vage an, zeigt sich aber in vielen Fällen. Der Kürze halber sei eher anekdotisch argumentiert: Die Technik der Prothese erlaubt nicht nur die Unterstützung defizitärer Funktionen, sie kann auch nicht defizitäre Funktionen verbessern.9 Doping-Mittel waren ursprünglich zur Heilung gedacht, nun werden sie zur Leistungssteigerung benutzt. Alle Programme des Enhancement gehen von ursprünglich unterstützenden Mitteln aus und konvertieren dann den Zweck hin zur Leistungssteigerung.

Neben dem unzweifelhaft höchst spannenden Forschungsaspekt steckt natürlich die Frage dahinter, ob es letztlich eine technologische Lösung des Kompensationsproblems geben könnte. Auch hier reicht das vermutete Spektrum von Erleichterung bis hin zur Ersetzung oder gar Verdrängung.

Ich hatte in Abschnitt 5.3.2 herausgearbeitet, dass das Mathematisierbare das Ersetzbare sei. Das würde bedeuten, dass wir KI kompensierend oder gar arbeitsersetzend überall da einsetzen könnten (entsprechende Aktorik und Sensorik vorausgesetzt), wo wir für die Arbeitstätigkeit entweder ein gutes, formales, d. h. in Algorithmen transferierbares, Modell bereits hätten oder wo wir die KI so lernend gestalten könnten, dass sie sich ein entsprechendes Modell baut. Könnten wir wenigstens diesen Prozess des Lernens kontrollieren?

Das Problem der lernenden KI besteht in der alten Spruchweisheit: „Sage mir, mit wem Du umgehst, und ich will Dir sagen, wer Du bist.“ Das bedeutet auf die KI angewendet, dass die Güte des Modells, d. h. die Adäquatheit des Modells im Hinblick auf das, was die Maschine können soll, von der Qualität der Daten abhängt, aus denen die Maschine „trainiert“ wird. Wenn wir also kein Modell haben, wie wir z. B. am besten die Puffergröße beim Materialfluss zwischen einer Station mit Fließfertigung und Stoßfertigung handhaben, dann gibt es drei Möglichkeiten:

Image       Man simuliert den Vorgang (z. B. mithilfe von ereignisorientierten Methodiken oder bildanalysierenden Verfahren) und studiert die Ergebnisse, um Muster z. B. bei Bewegungsabläufen einer Arbeitsaufgabe zu finden.

Image       Man analysiert die Daten statistisch, die bei der Beobachtung des realen Prozesses, der von Menschen gehandhabt wird, entstehen.

Image       Die dritte Möglichkeit besteht darin, dass man eine KI mit diesen Daten füttert, die dann Muster in diesem Prozess erkennt und den Prozess dann nach diesen Mustern optimiert.

Die erste Methode ist am aufwendigsten, braucht viel Zeit und Fachleute, bringt aber die besten theoretischen Einsichten. Die zweite Methode geht etwas schneller, braucht noch Beobachtung und Auswertung, erlaubt aber keine Feinsteuerung mehr. Die dritte Methode ist am schnellsten und wahrscheinlich auch am effektivsten, liefert aber keine Erkenntnisse über den Prozess und lässt den Betreiber des Systems letzten Endes im Unklaren darüber, wie das gebildete Modell aussieht und nach welchen Optimierungskriterien und -schritten vorgegangen wurde.

Ersetzt man also zur Erleichterung der Aufgabe die Steuerung durch ein aus Daten gebildetes Modell, das diese Steuerung nun regiert, dann tut man dies meist um den Preis, dass man nicht mehr genau weiß, was die Maschine nach einigen Lernschritten tun wird.

Nun ist erfolgreiches technisches Handeln in der Praxis nicht unbedingt auf ein vollständiges kausales Wissen der Prozesse angewiesen, da technisches Wissen meist regelbasiert formuliert wird, also nicht in kausalen Wenn-Dann-Aussagen, wie sie in der Naturwissenschaft üblich sind.10 Das bedeutet, dass auch das Nichtwissen um das gebildete Modell kein Schaden ist, solange es die übergeordneten Kriterien für die Performanz der Maschine erfüllt. Dabei wird allerdings leicht verdrängt, dass die Regelgenerierung anhand eines Modells, das durch KI gebildet worden ist, zeitlich nicht stabil sein muss, wenn man dem KI-System erlaubt, während der Steuerung des Prozesses weiter zu lernen. Da in der Industrie 4.0 die Anforderungen durch volatile Märkte sich ständig verändern, muss man dem KI-System, damit es effektiv bleibt, auch eine gewisse „Weiterbildung“ zugestehen, das bedeutet, das sich zumindest die Parameter des Modells verändern können.

6.3 Die Automatisierung der Automatisierung: die Steuerung der Steuerung

Dies ist der eigentliche Kern der Automatisierung der zweiten Stufe und nachfolgend, je nachdem, wie weit man sich das vorstellen kann, dann bis zur n-ten Stufe. Anschaulich sprechen wir von der Steuerung der Steuerung. Das bedeutet bei einem einfachen Regler, dass dieser in die Lage versetzt sein müsste, seinen Sollwert aus der Erfahrung selbst zu kreieren. Genau das bietet die Möglichkeit der KI an und geht über das, was man adaptive Regler nennt, hinaus.11

Nun kann man nach dem Spiel: „Ich weiß, dass er weiß, dass ich weiß, dass er weiß, dass . . .“ je nach Konzentration und Nervenstärke ziemlich weit fortfahren. Irgendwann verliert man den Überblick. Diese menschliche Grenze der rekursiven Referenz wird durch ein KI-System längst nicht erreicht, weil in der durch den Rechner realisierbaren formalen Logik solche Ausdrücke nicht zugelassen sind und der Rechner sie daher auch nicht akzeptiert. Er bleibt stehen oder gibt eine Fehlermeldung.12

6.3.1 Die Rolle des Modells und wie man sich dann behilft

Doch wir stoßen auch an die Grenzen des Verstehens eines Prozesses, wenn wir auf ein Modell verzichten, das auf gegenstandsorientiertem Wissen und Einsichten über diesen Prozess beruht, und uns nur auf die rechnerische Analyse von Daten verlassen. Der Unterschied zwischen dem mehr oder weniger voraussetzungslosen Anfitten von Datenkurven (Anpassen einer mathematischen Funktion durch Berechnen der am besten passenden Koeffizienten oder Parameter) und einer wissenschaftlichen Erklärung soll anhand des Pendels illustriert werden.

Kleiner Exkurs: das Pendel und wie man ein Modell bekommt

Was wir in diesem – grob vereinfachten – Beispiel als wissenschaftliche Erklärung brauchen, wäre ein physikalisches Modell. Die entscheidende Idee hierfür ist, dass die Rückstellkraft einer schwingenden Bewegung in guter Näherung proportional der Auslenkung ist – dies erzeugt eine harmonische, d. h. periodische Schwingung. Diese Überlegung in Bild 6.2 führt zu einer Differenzialgleichung (siehe Info-Kasten 1).13 Diese Gleichung repräsentiert das Modell.

Bild 6.2 Physikalisches Pendel

Info-Kasten 1: Erläuterung zu Bild 6.2: Physikalisches Pendel

l = Länge des Pendelfadens, g = Gravitationsbeschleunigung, m = Masse, 𝜙 = Auslenkungswinkel. Für kleine φ ist sin φφ; mit der Abkürzung führt die harmonische Rückstellkraft nach Newton F = mg zur Differenzialgleichung

deren Lösung eine von der Masse des Pendels unabhängige, periodische Funktion

ist. Dabei sind die zeitlichen Kurven der Auslenkung (schwarz bzw. rot in elektronischer Ausgabe des Buches) und die Geschwindigkeit des Endes des Pendels (grau bzw. grün in elektronischer Ausgabe des Buches) gerade um eine halbe Periode versetzt.

Image

Diese periodische Funktion φ(t) (rote Kurve in Bild 6.2) kann die Schwingungsbewegung des Pendels für alle Zeitpunkte „berechnen“, da sie eine mathematische Konsequenz der Differenzialgleichung ist, die auf der Modellvorstellung der proportionalen Rückstellkraft als Ursache für die Pendelbewegung aufbaut.14 Außerdem kann sie zur Prognose verwendet werden, sofern man die Randbedingungen, also die Anfangsposition des Pendels zum Zeitpunkt Null φ0 = φ (t = 0) und die Anfangsgeschwindigkeit 0/dt = /dt |t=0, experimentell genau einstellen oder bestimmen kann (rote und grüne Kurve in Bild 6.2).

Wenn wir jedoch kein Modell zur Verfügung haben, können wir die Bewegung eines Pendels beobachten und messen die Position des Endes des Pendels in kurzen Zeitintervallen. Das beobachtete Signal kann in eine quantitative Zeitreihe transformiert werden (Zeitpunkte in Zahl der sekündlichen Intervalle und Position der Pendelspitze (viereckige Punkte in Bild 6.3). Eine solche Tabelle kann visualisiert als Punkte in einem Diagramm werden und man sieht dann, dass diese Punkte sich innerhalb der Messgenauigkeit als Schwingung um eine Nullpunktlinie interpretieren lassen.

Info-Kasten 2: Sogenannte Least-Square-Fit-Verfahren (Methode der kleinsten Fehlerquadrate)

Wir legen eine theoretische Kurve (zuweilen auch Modellkurve genannt), ausgedrückt z. B. durch ein Polynom vom Grade n,

so durch die gemessenen Punkte y(ti), sodass die Summe der quadratischen Abweichungen minimal wird. Mathematisch geschieht dies, indem man die Koeffizienten a1 bis an des Polynoms f(t) durch die i = 1, . . ., m Punkte der gemessenen Kurve y(ti) legt und fordert, dass die quadratische Summe der jeweiligen Abstände zwischen den theoretischen Werten und den gemessenen Werten über alle Punkte i von 1 bis m

ein Minimum wird.15 Aus den gegebenen Daten kann man durch die Lösung des Gleichungssystems16

die Koeffizienten des Polynoms bestimmen Die theoretische Kurve f(t) lässt sich dann bestimmen, indem man die daraus errechneten Koeffizienten in den Polynomausdruck einsetzt.

Image

Ohne Kenntnis der physikalischen Gesetzmäßigkeit der Pendelbewegung, also ohne Wissen um Länge, Masse, Reibung am Aufhängungspunkt etc. können wir einfach nur beobachten und die Auslenkungswinkel y(ti) zu den Zeitpunkten ti messen. Dies sind dann die verfügbaren Daten. Um herauszubekommen, nach welchen Regelmäßigkeiten diese Daten sich verhalten, kann man unter der Annahme, dass eine solche Zeitreihe keine „Sprünge“ macht, die gemessenen Punkte der Zeitreihe mithilfe einer parametrisierbaren Modell-Funktion „anfitten“ (z. B. ein Polynom n-ten Grades). Dies ist die rote Kurve in Bild 6.3,17 d. h., man passt diese Kurve so an, dass die Abweichungen zu den gemessenen Daten minimal werden sollen (siehe Info-Kasten 2).

Bild 6.3 Least-Square-Fit: Die gemessenen 14 Punkte y(ti) (schwarz) werden benutzt, um ein Polynom f(t) vom Grade n (grau bzw. rot in elektronischer Ausgabe des Buches) an die Kurve anzupassen.18

Mit diesem Polynom, das wir jetzt auch Modell-Funktion nennen können, und der Kenntnis der n Koeffizienten aj kann man dann den weiteren Verlauf der Kurve extrapolieren. Die Genauigkeit der „Vorhersage“ nimmt allerdings mit der Entfernung von tjetzt, also für zukünftige Zeitpunkte, mathematisch bestimmbar ab.

Was man mit dem Modell machen kann: vorhersagen, aber nicht erklären

Diese Methode kann nun dazu verwendet werden, um Vorhersagen über das Verhalten der observierten Variablen (hier Pendelposition) zu machen, wenn man voraussetzen kann, dass der beobachtete Prozess und damit die Werte der Variablen hinreichend kontinuierlich und stetig verlaufen.19 Je mehr Mess- respektive Datenpunkte verfügbar sind und je höher der Grad des gewählten Polynoms oder die Anzahl der Funktionen aus einem vollständigen Funktionensystem ist, umso zuverlässiger kann die Prognose ausfallen.20 Mit zunehmender zeitlicher Entfernung vom letzten Zeitpunkt der Messung steigt auch die Fehlerwahrscheinlichkeit der Vorhersage. Die Möglichkeit, Vorhersagen über den künftigen Verlauf anzustellen, liefert jedoch keine Erklärung der physikalischen, sprich kausalen Natur der Dynamik der Variablen, hier der Pendelbewegung. Je weiter man in die Zukunft schreitet, umso ungenauer wird die Vorhersage.21 Mit anderen Worten: Ein Fit ist keine Erklärung und ein Satz von angefitteten Koeffizienten ist noch kein Modell in engeren Sinn.22

Die Koeffizienten sind ein wichtiger Bestandteil des sogenannten Matching-Verfahrens: Zwei Prozesse mit ähnlichen Koeffizienten sind höchst wahrscheinlich auch ihrer Natur nach ähnlich und könnten bei einem näheren Vergleich größere Ähnlichkeit untereinander aufweisen.

Während man bei der Lösung der vorangegangenen Differenzialgleichung für die Pendelbewegung ein wenig Mathematik braucht, benötigt ein Least-Square-Fit bereits wesentlich mehr Speicherplatz und Rechenzeit als den Plot der Lösung in Info-Kasten 1. Man kann also in riesigen Datensätzen bei geeigneter Kombination und mit raffinierten Algorithmen durchaus Muster finden, bei denen man vermuten kann, dass sie durch Prozesse entstanden sind, die den Nutzer des Prozesses, von dem die Daten stammen, interessieren könnten – aber die Kriterien sind wiederum modellbasiert, d. h., sie beruhen bereits auf Vor-Annahmen. Gerade die Vorauswahl der Kurventypen, nach denen man sucht, oder der Menge der zu matchenden Muster wiederum beruht auf Interessen – die US-amerikanische National Security Agency (NSA) wird die von ihr zusammengetragenen verfügbaren Datenmengen dieser Welt nach anderen Modellen und Gesichtspunkten „auswerten“ als Google, Amazon oder Facebook. Die Auswahl der entsprechenden und dann benutzten Algorithmen repräsentiert diese Gesichtspunkte und Interessen, d. h., die Algorithmen liefern kein objektives Bild der Welt, sondern plaudern nur das verdichtet aus, was die Daten unter bestimmten Aspekten, unter denen sie erzeugt wurden, graduell bestätigen oder negieren.

Wenn wir den Prozess des Pendelns also steuern wollten – dies wäre nun einmal angenommen unser Modellinteresse, z. B. die Schwingdauer zu erhöhen oder zu erniedrigen –, wissen wir aus dem physikalischen Modell, dass wir die Pendellänge verändern müssen, denn wegen der Frequenz

wird damit die Schwingdauer T zu

Damit ist die Variable, die wir beeinflussen müssen, damit wir die Schwingdauer des Pendels verändern können, die Länge des Pendels l. Aus den Parametern aj des Fits, den man aus der Least-Square-Methode herausbekommen kann, womit man das Verhalten lernen und für eine bestimmte Zeit vorhersagen kann, kann man diesen Zusammenhang nicht erkennen, denn im mathematischen Ausdruck des Polynoms kommt der Begriff der Pendellänge und der Frequenz gar nicht vor. Die Modellfunktionen23 sind hier nur durch die Parameter aj bestimmt und diese haben keine unmittelbare physikalische Bedeutung.

Das bedeutet, dass das Parameter-Modell keine kausalen Zusammenhänge „weiß“, sondern nur für Vorhersagen und Steuerungen für kurze Zeiten tauglich ist. Es erklärt also nichts. Wenn wir an der Versuchsanordnung etwas ändern (z. B. die Pendellänge) und die Beobachtung wiederholen und die Daten wieder anfitten, ändern sich auch die Parameter des angepassten Polynoms. Wenn wir aber die Parameter ändern, wissen wir noch nicht, was sich am Verhalten ändert, sondern müssen es erst explizit austesten. Was man dann benötigen würde, wäre eine Sensitivitätsanalyse der Auswirkungen möglicher Eingriffe in das System. Dies würde sich daran zeigen, dass solche Eingriffe die Beobachtungsdaten verändern. Die veränderten Daten würden dann wieder die Parameter aj des Fits verändern. Damit könnte man dann wiederum ein Sensitivitätsmodell für die Abhängigkeit von beobachtbaren Größen und den Parametern bekommen, um ihnen eine „physikalische“ Interpretation geben zu können.

6.3.2 Mit welchen Modellen steuern wir? CIM revisited

Daraus folgt, dass es sich leichter steuert, wenn man die Zusammenhänge in ihrem Kausalnexus (sprich in unserem Beispiel die Differenzialgleichung) kennt und nicht nur die Parameter in einem Zeitreihenmodell.24 Daher kann man die Steuerung der Steuerung besser durch gute Modelle der Steuerung bestimmen als nur durch Mustererkennung und statistische KI. Dazu müsste man aber, gerade bei Industrie 4.0, eine durchgängige Theorie des Produktionsprozesses haben (analog zur Differenzialgleichung beim Pendel), da sich die Industrie ja auf die Optimierung von Wertschöpfungsketten bezieht, die unterschiedliche Bereiche wie Fertigung, Montage, Kommissionierung etc. bis hin zu überbetrieblichen Strukturen umfassen sollen. Diese Theorie gibt es bisher nicht und man muss dem Philosophen Georg Picht (1913 – 1982) recht geben:

„Die theoretische Vernunft betrachtet und analysiert das, was ist. Die praktische Vernunft entwirft die Regeln des Verhaltens. Aber das unheimlichste und tiefste von allem menschlichen Vermögen, nämlich das Vermögen, solches hervorzubringen, was zuvor nicht da war, ja eine künstliche Welt zu erbauen, wurde bisher noch nicht als eine ursprüngliche Gestalt der menschlichen Vernunft begriffen, in seinen eigentümlichen Strukturen dargestellt und im Verhältnis zu den beiden anderen Gestalten der menschlichen Vernunft . . . bestimmt . . . Die allgemeine Theorie der Produktion wäre eine der Grundwissenschaften der modernen Welt.“25

Vielleicht fühlt man sich als älterer Zeitgenosse deshalb bei den Diskussionen um Industrie 4.0 manchmal an die Diskussionen um die computerintegrierte Fabrik der 80er-Jahre und an die sogenannten CIM-Havarien erinnert. Außer Insellösungen, für die man geeignete Modelle aus der Operation Research kannte, ging die Entwicklung nicht richtig vorwärts.26

Im Rückblick sprach man dann um 1990 herum von vier Phasen der Entwicklung der computerintegrierten Fertigung (Computer Integrated Manufacturing CIM), der naiven Phase, der pragmatischen, der sozialtechnischen und der soziotechnischen.27 In der ersten Phase glaubte man, den biologischen „Risikofaktor Mensch“ zu ersetzen und die Produktion zu einem deterministisch automatisierten System machen zu können. Die Vorstellung von der menschenleeren Fabrik wurde populär. Nach dem Scheitern dieser Vorstellung ging man pragmatisch daran, die eine oder andere bestehende Insellösung miteinander zu verknüpfen, z. B. Fertigungsinseln mit Lagerhalten, und so hoffte man, wenigstens Teilautomatisierungen zu verwirklichen. Man kam vom großen Zentralrechner ab und verknüpfte die Server vor Ort an den jeweiligen Bereichen. Die Zielgrößen waren just in time, kleine Losgrößen, Flexibilität und hohe Qualität.28 Die einmal implementierte Software erwies sich aber als zu starr, nicht rasch genug anpassbar.

„Eine CIM-Havarie hat man sich nicht als ‚rauchenden Trümmerhaufen‘ vorzustellen. Sie ist dadurch bestimmt, daß die theoretisch mögliche Steigerung der Effektivität auch nach Überwindung der Anfangsschwierigkeiten nicht annähernd erreicht werden kann. Die CIM-Havarie liefert den praktischen Nachweis, daß man nicht genau genug weiß, wie mit der netten Technik effektiv produziert werden kann.“29

Es erwies sich zum Teil, dass die neuen CIM-orientierten Anlagen weniger produktiv waren als die bisher bestehenden. Man ruderte also zurück und reintegrierte den Menschen. Das Förderprogramm „Humanisierung des Arbeitslebens (HdA)“, begonnen 1974, wurde erneut aufgelegt, die sozialtechnische Phase begann. Paradigmatisch war der Buchtitel: „Erst Organisation, dann CIM“.30 Dies umfasste Qualifikation und Benutzerbeteiligung. Auch das schien nicht auszureichen. Man sah in der vierten Phase ein, dass organisatorische und soziale Innovationen Hand in Hand mit technologischen Innovationen gehen müssen:

„Der Weg zur Fabrik mit Zukunft beginnt deswegen mit der strategischen Überlegung, an welchen Zielen und an Märkten man sich orientieren muß beziehungsweise will. Daraus sind die Anforderungen an den Betrieb abzuleiten. Dabei ist es durchaus möglich, daß sich eine computerintegrierte Fertigung als das falsche Mittel herausstellt.“31

Anders ausgedrückt: Wir haben die Modelle des Produktionsprozesses, geschweige denn der Erbringung von Dienstleistungen und organisatorischen Abläufen, immer noch nicht so, dass wir sie wirklich dazu verwenden könnten, durch Maschinen diese Prozesse „menschenleer“ verwirklichen zu können. Deshalb wissen wir auch nicht so ganz genau, welche menschlichen Tätigkeiten innerhalb dieser Prozesse ersetzbar sind und welche nicht. Dies ist auch der Grund, weshalb wir nicht genau wissen, welche Jobs entstehen und welche verloren gehen werden.

6.3.3 Datenanalyse als Modellersatz

Deshalb ist die Versuchung sehr groß, sich mit Modellen zu behelfen, die die Daten aus bisherigen Prozessen anfitten und diese durch Lernen verbessern, und daraus Voraussagen oder gar Steuerinformationen zu errechnen. Diese Funktionen, die aus solchen Analyseprogrammen entstehen, erklären zwar nichts, sind aber zur Vorhersage auf kürzeren Strecken durchaus brauchbar. Letztlich sind sie das Paradigma des gegenwärtigen Vorgehens bei Industrie 4.0. Ob sich daraus wiederum Industrie-4.0-Havarien ergeben werden, wie bei CIM, wird die Zukunft zeigen. Entwicklungen wiederholen sich ebenso wenig wie Geschichte, aber man kann aus der Geschichte früherer Entwicklungen lernen.

6.4 Lernende Maschinen

Die KI hat sich von dem deduktiven Pfad, der auf Modellen und Logiken basierte, hin zum Pfad der statistischen Methoden der Musterextraktion und des Matching verschoben. Das hat seinen Grund darin, dass seit einigen Jahren die Verfügbarkeit von Rechenleistungen und Rechenkapazitäten bei gleichzeitigem Preisverfall um einige Zehnerpotenzen gestiegen ist. Den Unterschied in den Verfahren kann man auch an den Übersetzungsprogrammen erkennen. Die früheren Übersetzungsverfahren benutzten die mehr aus logisch-formalen Deduktionsprozeduren herrührenden Schritte:

1.      Eingabe des Satzes in schriftlicher oder phonetischer Form

2.      Analyse der grammatikalischen Struktur des Satzes der Ausgangssprache A

3.      formaler Ausdruck in der A mit Zuordnung der Elemente zu den grammatikalischen Kategorien

4.      semantische Bestimmung der Elemente in der A

5.      Erzeugung des formalen Ausdrucks in der Grammatik der Zielsprache Z

6.      semantische Bestimmung der Elemente in Z durch ein Lexikon

7.      Belegung des formalen Ausdrucks mit den Ausdrücken der Zielsprache entsprechend der semantischen Belegung

8.      Homonymie-, Synonymie- und Kontextcheck

9.      Ausgabe des Satzes in Z (schriftlich oder natürlichsprachliche Ausgabe)

Bei den neuen Übersetzern geht man hingegen so vor:

1.      Aus dem umgangssprachlichen Ausdruck werden Phrasen (Bestandteile) in der A selektiert.

2.      In der Zielsprache werden Phrasen gesucht, die mit den gespeicherten Mustern in A am häufigsten oder am besten korrelieren.

3.      Die so in Z gefundenen Muster werden so zusammengesetzt, dass sie den Mustern von Sätzen in Z am besten entsprechen.

4.      Es erfolgt die Ausgabe des Satzes in der Zielsprache.

Man kann leicht nachvollziehen, dass die deduktive Version nicht viel Speicherkapazität benötigt, dafür aber relativ langsam ist, weil sie viel „rechnen“ muss. Die zweite Version benötigt eine immense Menge von Speicherplatz für den Mustervergleich der sprachlichen Phrasen in beiden Zielsprachen. Das Matching geht dann dank enormer Rechengeschwindigkeit relativ schnell vonstatten.

In der Praxis ist also die zweite Version schneller und auch besser. Sie erfordert darüber hinaus keine Theorie oder Kenntnis einer ausführlichen formalen Grammatik. Das System übersetzt so, wie Kinder Sprachen lernen, ohne eine Grammatiktheorie bemühen zu müssen.32

Eine Weiterentwicklung stellt die sogenannte generative künstliche Intelligenz dar. Der Ausdruck bezieht sich auf einen Chatbot, der von der Firma OpenAI im November 2022 der Öffentlichkeit vorgestellt wurde. Der Chatbot ChatGPT beantwortet auf der Grundlage eines riesigen Datensatzes Fragen in klarer, gut formulierter Prosa in unterschiedlichen Sprachen, d. h. ChatGPT kann als Reaktion auf kurze sprachliche Aufforderungen Text, Bilder und andere Medien generieren.

Die Antworten des Chatbots werden analog zu den vorher genannten Schritten eines natürlichsprachlichen Systems erzeugt: Aus Milliarden von Texten werden die statistischen Zusammenhänge zwischen Wortfolgen, Begriffen und Sätzen ermittelt.

Diese statistischen Zusammenhänge werden laufend verbessert – durch das „Füttern mit Daten“, durch Mustererkennung auf diesen Daten und durch überwachtes sowie unüberwachtes Lernen anhand von Korrekturen, Anfragen und Zugriffen auf das Internet. Die Antwort auf eine Frage erzeugt die natürlichsprachlich zusammengesetzte Folge von Begriffen und Sätzen, die im Zusammenhang mit den Begriffen und Wortfolgen der Frage am wahrscheinlichsten sind. Von „Verstehen“ der Frage kann also keine Rede sein.33

Was bedeutet das für die Ersetzbarkeit der Arbeit durch intelligente Maschinen? Wir haben gesehen, dass man Maschinen, die physikalische Prozesse realisieren, mit Computern steuern kann, indem sie die Randbedingungen dieser Prozesse beeinflussen. Damit können wir Prozesse im Rahmen des physikalisch Möglichen so beeinflussen, dass sie unseren Zwecken dienen. Das bedeutet, dass der Computer durch Programme, die nach modellbasierten Algorithmen (seien sie nun KI oder nicht) ablaufen, Steuersignale für die Maschine erzeugt. Dies geschieht aufgrund unserer Angaben, die wir in Zeichen eingeben, die in elektrische Impulse codiert werden.

Durch die Schnelligkeit und Komplexität der Algorithmen ist es möglich, dass nicht nur physikalische Prozesse, die in dieser Weise gesteuert werden, sondern auch die Parameter dieser Algorithmen sich nach übergeordneten Sollgrößen aufgrund von Daten, die aus dem Prozess selbst stammen, verändern können und so die Arbeit der Optimierung von Prozessen übernehmen können. Dies ist auch höherstufig vorstellbar, d. h., dass den Algorithmen weitere Algorithmen übergeordnet sind, die bestimmen, in welchem Rahmen die unteren Algorithmen variieren können. Es wird von der Architektur der künftigen Rechner abhängen, wie viel solcher Steuerungen der Steuerungen der Steuerungen noch möglich sind und wann eine mögliche Grenze der Miniaturisierung und Leistungsfähigkeit bei der herkömmlichen Siliziumtechnologie erreicht sein wird.34

Die Erwartungen an die Quantenrechner scheinen noch etwas überzogen zu sein, da die Aufwände für Kühlung und Korrekturberechnungen die bisherige Nutzenfunktion noch sehr beeinträchtigen. Gleichwohl ist vorstellbar, dass die Technologie des Quantencomputing nicht nur zur Kryptographie oder zur Entschlüsselung beiträgt.35 Gerade für Matching-Verfahren und Mustererkennung, die beim derzeitigen KI-Paradigma eine so große Rolle spielen, könnte diese Form von Berechnungen jedoch wegen der bloßen „Rechenkraft“ einen großen Sprung nach vorne darstellen. Zumindest der Simulation von menschenähnlichen Verhaltensweisen wären dann nur noch energetische und kombinatorische Grenzen gesetzt.

6.5 Roboter: Maschinen oder mehr?

Daraus ergibt sich dann die spannende Frage, ob Roboter Sklaven im aristotelischen Sinne sind, also menschenähnliche humanoide Werkzeuge, die man zu eigen haben und im Sinne der Verfügbarkeit auch besitzen kann, die aber eines Herrn oder Werkmeisters bedürfen, oder ob man ihnen einen autonomen Status zubilligen soll, wenn sie dereinst menschenähnliche Fähigkeiten wie Bewusstsein, Antizipation und Intention simulieren sollten. Ob sie dann auch über diese Fähigkeiten verfügen, ist eine andere Frage.

Sklaven nehmen ihren Besitzern Arbeit ab, und als kluge Sklaven galten solche, die sahen, was gemacht werden musste, ja, sie nahmen ihrer Herrschaft sogar ab, sich darum zu kümmern, was gemacht werden sollte. Doch Sklaven altern. Auch Roboter altern, wie jede Technik, selbst wenn sie autonom wären. Sklaven reproduzieren sich, den Nachwuchs muss man anlernen, ihm zeigen, was zu tun ist, wer sein Herr ist. Doch diese Zeiten sind – letztlich dank der bürgerlichen Revolutionen – fast überall vorbei.36 Wir müssten also dereinst alternde Roboter instand setzen, entsorgen und neue bauen. Man sieht: Wir entrinnen der Arbeit nicht, weil selbst noch die selbstständigsten Werkzeuge irgendwann einmal einen Anfang haben, der auf menschliche Arbeit zurückgeht, und sie ab einer gewissen Zeit der Instandhaltung bedürfen. Auch diese könnte man automatisieren, aber diese Prozesse zu automatisieren, ist ebenfalls Arbeit.

Wenn wir nun aber ein Werkzeug erfinden könnten, das, wenn seine Zeit abgelaufen ist, selbst ein neues Werkzeug erfindet und dieses auch selbst herstellt? Ob dies möglich ist, sei zunächst dahingestellt.37 Wenn wir aufgrund einer solchen – jetzt einmal angenommenen – Möglichkeit dann überhaupt nicht mehr arbeiten wollen, müssten wir es den Generationen von selbstreproduzierenden und sich selbst optimierenden/verbessernden Werkzeugen überlassen, was an Arbeit zu tun ist und wie sie getan werden soll.

Damit wird eine jedermann bekannte Kopplung wieder sichtbar: Wer an einer Sache nicht arbeitet, kann auch nicht darüber entscheiden, weil jede Entscheidung letztlich eine Beschäftigung mit der Sache voraussetzt, und dies ist bereits Arbeit. Und wenn es sich herausstellt, dass wir mit dem Gesamtergebnis der von autonomen Robotern geleisteten Arbeit nicht zufrieden sind – können wir diese Technik dann wieder abbauen? Selbst der Versuch hierzu wäre ja ebenfalls wieder Arbeit.

6.5.1 Zum Begriff der Autonomie

„Je vollkommener die Maschine, desto mehr Moralität macht sie nöthig (Beil, Flinte usw.).“

Friedrich Nietzsche38

Der Begriff Autonomie ist schillernd und wurde in Kontexten wie Industrie 4.0, Robotik und Waffentechnik in die ökonomisch-technische Diskussion eingeführt. Wenn man konsequent diskutiert, müsste man, wenn man von autonomen Systemen spricht, diesen einen freien Willen zubilligen, und zwar so, dass sich dieses System aus eigenem Entschluss so verhalten kann, wie es sich verhält, dass also keine, wenn auch lange und vielgliedrige Kette von externen kausalen Determinanten nachweisbar oder zumindest denkbar wäre. Nach Catrin Misselhorn ist die Selbstveranlassung nur durch innere Faktoren bestimmt, die der Kontrolle des Handlungssubjekts unterliegen. Das bedeutet nicht Nicht-Determiniertheit, sondern Determiniertheit ausschließlich durch das Handlungssubjekt.39

Eine erste Unterscheidung von Autonomie und Freiheit findet sich in der Rechtsphilosophie der Aufklärung: Freiheit ist die Unabhängigkeit des Handelns von der Gewalt des anderen, die Eigenmacht für Tun und Lassen überhaupt, während Autonomie nur im Rahmen einer rechtlichen Ordnung gedacht wird. Dazu gehört zum Beispiel die Befugnis für Körperschaften wie z. B. Vereine, sich selbst Satzungen zu geben und damit beschränkt Rechtsnormen zu setzen.40

Philosophisch geht der Begriff der Autonomie als einer besonderen Art gemeinschaftlicher Verfasstheit erst bei Immanuel Kant auf das Subjekt über – dort gewinnt er sozusagen an Fahrt. So ist in seiner Moralphilosophie die Autonomie als Selbstbestimmung der praktischen Vernunft zu sehen, sie ist die Voraussetzung für die Selbstgesetzgebung der theoretischen Vernunft.41

Dies blieb nicht unwidersprochen und Ergänzungen kamen hinzu. Herbert Cohen führte zur Autonomie als weiteres Bestimmungsstück die Selbstverantwortung hinzu.42 Michael Pauen und Harald Welzer43 haben die Freiheit von der Autonomie wieder getrennt: Freiheit ist danach eine Eigenschaft des einzelnen Handelns, d. h., unterschiedliche Handlungen einer Person können frei oder unfrei sein, während Autonomie eine Eigenschaft der Person selbst ist, die frei zu handeln vermag. Autonomie ist nach dieser Position eine Errungenschaft, die auch wieder verspielt werden kann, und sie setzt Widerstandskraft voraus. Mit dem Maß an Autonomie wächst der Bedarf an Selbststeuerung und individueller Verantwortung, es kann aber auch den Zwang zum autonomen Handeln geben. Die anekdotische Schülerfrage verdeutlicht das: „Frau Lehrerin, müssen wir heute wieder machen, was wir wollen?

6.5.2 Autonome Maschinen?

„Autonome Technik“ ist ein Kampfbegriff des Marketings und der Ankündigungspublizistik einer Branche geworden, die von jeher den Mund ziemlich voll genommen hat.44 Wir haben uns schon fast daran gewöhnt, dass bestimmte, sowohl bereits existierende als auch angedachte Technologien als autonome Systeme gekennzeichnet werden. Dazu zählen fahrerloses Fahren, Pflege- und Medizinsysteme, die Maschinerie bei Industrie 4.0, Geräte des Ambient Living, Einrichtungen im Smart Home, unbemannte, sich selbst ins Ziel steuernde Waffen, die informationstechnischen Strukturen bei Smart Cities sowie angedacht als Zukunftsmusik vollautomatisierte Dienstleistungen der Energieversorgung (Smart Grids), der Wasserversorgung, der Entsorgung von Müll und öffentliche Dienstleistungen wie Verwaltung, Rechtsprechung, Vollzug und Verteidigung. Zur Vereinfachung des Sprachgebrauchs sollen all diese Systeme verallgemeinert Roboter genannt werden, da sie nicht nur rechnen, sondern auch Operationen durchführen können, die letztlich arbeitsunterstützend und in manchen Fällen auch -ersetzend sind.

Schon heute kann man Maschinen bauen, die in einem vereinfachten Sinn des Begriffs „lernen“, d. h. aus sensorischen Daten aus der Umwelt sowie aus Eigenmessungen ihre Programme parametrisch optimieren beziehungsweise im Rahmen dessen, was bei einem Algorithmus möglich ist, verändern. Programme, die neuronale Netze beinhalten,45 welche auf normalen Rechnern mit Von-Neumann-Architektur emuliert werden, wie auch dezidiert gebaute Netze können das bereits. Es gibt in diesem Punkt also keinen Anlass für auf zukünftige Entwicklungen gerichtete Befürchtungen oder Hoffnungen.

Autonomie, intrinsische Intention, Denken und intelligentes Verhalten – all diese Begriffe sind eine Frage der jeweiligen Definition. Diese sind gebunden an die Interessen des Definierers. Und so kommt es, dass die Definition der Intelligenz in der KI über weite Strecken sich dem anschmiegt, was die jeweiligen Maschinen schon können.

Vielleicht sollte man besser von autonomisierter Technik sprechen. Der Begriff ist in Abgrenzung zur autonomen Technik bewusst gewählt, da die Rede von autonomer Technik zumindest ungenau, wenn nicht widersprüchlich ist. Technik im erweiterten Sinne von Günter Ropohl (1939 – 2017) ist nicht autonom,46 denn sie ist in ein Handlungssystem eingebettet. Sie hat sich auch nicht selbst hervorgebracht, sondern ist heteronom, also von etwas, was nicht diese Technik ist, erzeugt. Eine autonomisierte Maschine ist also nicht nur ein Regler, wie wir ihn in der Kybernetik oder Regelungstheorie seit der Wattschen Dampfmaschine kennen. Wir können beobachten, dass Roboter technische Verrichtungen vornehmen, die mit der obigen Definition übereinstimmen, wenn man die Operationen (Handhabungen), die Gegenstände, die Veränderungen und den Vergleich Ziel – erfolgte Änderungen betrachtet.

Bei der Diskussion um sogenannte autonome Waffen (die ja auch Maschinen darstellen) gibt es eine Unterscheidung,47 die für die Robotik verallgemeinerbar und damit auf „zivile“ Systeme übertragbar ist:

Image       System In-the-loop (IL): Das System (z. B. die Waffe) wird vom Menschen bedient, gegebenenfalls auch ferngesteuert (z. B. unbemannte Drohne, Handhabungssysteme).

Image       System On-the-loop (OL): Das System ist programmiert, der Mensch überwacht und kann eingreifen. Gewisse Operationen und Entscheidungen in Echtzeit werden ohne Zutun des Menschen durchgeführt (z. B. abschaltbarer Autopilot, Fertigungsroboter, fahrerlose Transportsysteme).

Image       System Out-of-the-loop (ExL): Nach dem Start der Systemoperation ist keine menschliche Kontrolle mehr möglich, das System operiert nach vorgegebenen Zielen und Kriterien unabhängig in Echtzeit (z. B. autonomes Fahren im engeren Sinne).

Alle bisherigen bekannten Roboter im weiteren Sinne sind vom Typ IL oder OL, aber nicht ExL.

6.5.3 Roboter – cui bono?

Ein Roboter ist in der Lage, formal ausgedrückte technologische Regeln zu befolgen und neue Ziel-Mittel-Relationen durch lernende Algorithmen in einem vorgegebenen Rahmen, d. h. einer beschränkten Ontologie48 zu etablieren und zu verbessern. Es gibt allerdings zwei strittige Punkte: Kann ein Roboter (als Paradigma eines autonomisierten Systems) eine Intention entwickeln, neues Wissen aus vorliegenden Informationen erzeugen und in neuen Situationen möglicherweise neue Ziele entwickeln, die im Rahmen des Zwecks, für den er gebaut wurde, nicht ableitbar sind?49 Solche „Absichten“ könnte man zwar als hochabstrakte Zielvorgaben im Rahmen von Metaalgorithmen einprogrammieren, also die Richtung vorgeben, wohin das System lernen soll, und nicht die Lerninhalte selbst. Das würde aber nur einem gewissen Grad an Autonomie entsprechen, denn die Maschine kann bei einem solchen Arrangement noch lange nicht „Nein“ sagen, d. h. zum Beispiel aus irgendwelchen intrinsischen Gründen sich weigern, überhaupt lernen zu wollen. Menschen können das bekanntlich sehr gut.

Zumindest ist der Stand derzeit so, dass diejenigen, die Roboter einsetzen und sie als autonom deklarieren, damit gewollt oder ungewollt verschleiern, dass und welche Metaziele einprogrammiert sind. Es ist kaum zu erwarten, dass diese Metaziele im Widerspruch zu einer ökonomisch interessanten Verwendung des Produkts stehen werden. Es wird uns also eine Maschinenrationalität vorgegaukelt, die um Zehnerpotenzen schneller, genauer und fehlerfreier als die menschliche sei, weil sie autonom aus Situationen lerne, die der Mensch sowieso nicht mehr überblicken könne, und deshalb auch nicht mehr hintergehbar, unüberprüfbar und daher unvermeidlich sei. Dabei darf man dann doch die Frage nach dem cui bono stellen.

So kann man durchaus vermuten, dass wir von dem ursprünglichen Autonomiebegriff, der die Selbstgesetzlichkeit, also die Fähigkeit beinhaltet, schon aufgrund von Erfahrung, Vernunft und Willen sich im Denken und Handeln eigene Ziele zu setzen, zu verfolgen und sie auch korrigieren zu können, bei den gegenwärtigen Systemen (noch) Lichtjahre entfernt sind. Denn der Begriff der Autonomie wird insinuiert von KI-Protagonisten: Maschinen würden quasi intelligentes Verhalten zeigen, indem sie durch Training adaptives Verhalten aufgrund der sensorisch und datentechnisch erfassten Vorgeschichte entwickeln und entscheidungsersetzend eingesetzt werden sollen. Autonome Regelung/Steuerung wäre dann ein Ausdruck für einen Prozess, der in einer nicht hierarchischen Struktur dezentralisierte Entscheidungen fällt. Autonome Regelungen würden dazu interagierende Elemente benötigen, die „selbst“ Entscheidungen treffen könnten, d. h. ohne äußere Anweisungen. Autonome Regelungen zielten auf bessere Stabilität und bessere Ergebnisse im System durch ein verteiltes und flexibles Management der Dynamik und der Komplexität. Dies könne man durch einen Satz von Software-Agenten (digital twins), die miteinander verhandeln, realisieren.

Bei diesen Ansätzen fällt auf, dass die Architekten solcher Systeme bei ihren Zielen begrifflich gesehen von der direkten Optimierung eines Systems zur Kooperation von Systemen übergehen, wobei diese Kooperation nun zur schrittweisen und gegebenenfalls lernenden Selbstverbesserung genutzt wird. Mit anderen Worten: Bei diesem Begriff der Autonomie scheinen die Protagonisten davon auszugehen, dass man nicht primär Optimierung anstreben muss, sondern kooperierende (Teil- oder Unter-)Systeme entwickeln möchte, die miteinander agierend und kommunizierend sich lernend selbst verbessern können.50

Abgesehen davon, dass bei solchen völlig autonomen Systemen Fragen aufgeworfen werden, die zunächst nur sehr theoretisch und eher nach Science-Fiction und großem Kino klingen: Kann ein intelligenter Roboter, der autonom agieren kann und Bewusstsein und Emotionen zumindest simulieren kann, so etwas wie ein Inhaber von Rechten sein und gibt es gegenüber solchen Entitäten dann so etwas wie Verpflichtungen seitens der Erbauer oder Benutzer? Wir kommen auf diese Fragen in Abschnitt 9.2 bis Abschnitt 9.4 zurück.

6.6 Zusammenfassung

Die Erleichterung bei der Arbeit mittels Technik (also auch durch KI) wird keine endgültige Erlösung von der Arbeit sein. Da wir die Maschinen (im weiteren Sinne Roboter mit Aktorik, Sensorik und KI), die uns die Arbeit „abnehmen“ sollen, immer erst entwickeln, bauen, benutzen, warten und entsorgen müssen, wird uns die Arbeit nicht ausgehen.

Technik hilft durch ihren prothetischen Charakter, Defizite menschlicher Fähigkeiten zu kompensieren und diese Fähigkeiten zu steigern (sogenanntes enhancement). Dazu muss man diese Fähigkeiten aber erst modellieren. Es gibt kausale Modelle, mit denen man Prozesse verstehen, vorhersagen und steuern kann. Es gibt aber auch parametrische Modelle auf der Basis von Datenanalysen, mit denen man kurzfristig Prozesse vorhersagen und steuern, aber nicht erklären kann. Dies kann man sich am einfachen Beispiel eines Pendels klarmachen.

Da man noch keine oder keine gute kausale Theorie des Produktionsprozesses, geschweige denn der Dienstleistungen hat, behilft man sich mit Datenanalyse und lernenden Maschinen, also mit KI. Die so gesteuerte Maschinerie als das ganze, infrage kommende System wie z. B. Industrie 4.0 wird wohl kaum autonom werden und sie sollte es auch nicht sein.

In Summe bedeutet dies nach dem in diesem Kapitel Gesagten, dass bei allem denkbaren Robotereinsatz zur Arbeitsersetzung die Arbeit der Kontrolle letztlich beim Menschen verbleibt und in Zukunft auch verbleiben sollte. Die Roboter werden uns also nicht von der Arbeit erlösen, aber sie haben die Inhalte der Arbeit massiv verändert und sie werden es weiter tun.

Anmerkungen

1 Aristoteles: Nikomachische Ethik 1177b 5. In: Aristoteles (1995), Bd. 3, S. 249.

2 Marx (1996): Das Kapital. Band 1, MEW (Marx Engels Werke), Bd. 13 (1966), S. 192.

3 Aristoteles: Politik. 1253 b 33. In: Aristoteles (1995), Bd. 4, S. 7.

4 Siehe Joska (2005). Zum Wandel der Leistungspotenziale im Prozess des Alterns siehe auch Kruse (2000), zur Steigerung siehe Ilmarinen (2000).

5 Bild: eigene Darstellung, in Anlehnung an P. Rabbit. Schematische Darstellung, ergänzt durch die obere Kurve, die die längere Aufrechterhaltung der Leistungsfähigkeit als Projektion darstellt. Der Pfeil markiert dann die von einer geeigneten Maschine zur Verfügung gestellte Kompensation der zunehmenden Leistungsschwäche. Der schmale doppelte Pfeil markiert die mögliche Kompensation des Leistungsabfalls durch Erfahrung, Lernen und Wissen.

6 Grunwald (2012).

7 Kapp (1877).

8 Bei Heidegger (1976).

9 Siehe die Ausführungen von Erlach (2000) über den Prothesengott, Abschnitt 2.2.5, S. 170 ff.

10 Diese Regeln haben die Form: Wenn B sein soll, dann versuche A, vor allem dann, wenn B aus A folgt. Zur genaueren Analyse der Logik technischer Aussagen siehe Kornwachs (2012 STW), Kapitel B1.

11 Adaptive Regelung bedeutet, dass der Regler (z. B. ein Thermostat) aufgrund von Messungen des Prozessverlaufs seine vorgegebenen Kenngrößen (z. B. Solltemperatur) in einem gewissen Umfang selbst variieren kann. Siehe Lehrbücher der Regelungstheorie.

12 Dies ist das Problem der sich selbst aufrufenden und erzeugbaren Programme. Wir haben nachweisen können, dass die angeblich selbstaufrufenden Programme dies bei heutigen Rechnern nur 32-mal bzw. 64-mal tun können. Der Grund liegt in der Maschinenarchitektur. Das bedeutet, dass auch die Modifikation durch Selbstlernen bei der KI einer Grenze unterworfen ist, nämlich im vorgegebenen Umfang des Parameterraums. Siehe Kornwachs (1989 SFI).

13 Hier schematisch, genauere Herleitungen siehe Lehrbücher der Physik. Dieser und die folgenden Info-Kästen können beim ersten Lesen überschlagen werden.

14 Wir lassen zur Vereinfachung die Reibung des Pendelfadens an seiner Aufhängung, die von der Pendelgeschwindigkeit abhängt, weg. Man würde dann auch eine Schwingung erhalten, deren Amplitude aber nach einer negativen Exponential-Funktion abnimmt.

15 Nimmt man beispielsweise als Modellfunktion ein orthogonales trigonometrisches Funktionensystem, entspricht dies dem Vorgehen der Fourieranalyse. Man kann auch andere vollständige Funktionensysteme hierfür nehmen.

16 i ist der Index der Zeitpunkte ti für die Beobachtung, die Anzahl der Beobachtungswerte ist dann m. j ist der Index der Koeffizienten aj; der Grad des gewählten Polynoms ist dann n.

17 Fitten heißt hier „anpassen“. Dies können lineare oder nichtlineare Funktionen sein. Siehe Stöcker (1995), Abschnitt 21.12, S. 781 ff. Die Ergebnisse dieser Methode sind allerdings empfindlich gegen Ausreißer.

18 Bild: eigene Darstellung.

19 Es gibt auch geeignete Modellfunktionen für zustandsdiskrete Variablen, z. B. Walsh-Funktionen.

20 Bei einer Approximation (oder Anfitten) durch Polynome ist dies die Zahl der verwendeten Potenzen. Die Approximation durch die Methode der kleinsten Fehlerquadrate wurde von Carl Friedrich Gauß (1777 – 1855) entwickelt, als er 18 Jahre alt war. Man kann den Least Square beliebig kompliziert machen – schon Werner Heisenberg (1901 – 1976) soll gesagt haben: „Gebe mir tausend Parameter und fitte Dir die Welt an.

21 Diese Ungewissheit kann leicht berechnet werden; siehe z. B. Strutz (2011). Siehe auch Falk (2006).

22 In der Zeitreihenanalyse wird die Bestimmung der Koeffizienten in Lehrbüchern ebenfalls Modellbildung genannt. Deshalb hier die Unterscheidung von Modell und Modell im engeren Sinne, d. h. einem Modell, das auf einem die Signale respektive Daten generierenden Prozess beruht und ihn in Form eines analytischen Ausdrucks oder einer Gleichung (auch rekursiv definiert) darstellt.

23 Man spricht auch von einem parametrischen Modell. Dies ist aber ein anderes „Modell“ als ein Modell, das Kausalbeziehungen ausdrückt, z. B. durch Differenzialgleichungen oder rekursive Gleichungen.

24 Das gilt auch bei der Bildung eines Attraktors in einem (meist lediglich emulierten) neuronalen Netz. Dasselbe gilt natürlich auch für die statistische Korrelationsanalyse.

25 Picht (1982), S. 597.

26 Siehe Kornwachs (1993 SEL), S. 131 ff.

27 Wohland (1990).

28 Wohland (1990).

29 Wohland (1990).

30 Bullinger/Betzl (1991).

31 Wohland (1990).

32 Wir diskutieren an dieser Stelle nicht, ob eine übersetzende Maschine den zu übersetzenden Satz im menschlichen Sinn „verstanden“ hat. Diese Diskussion ist in Searle (1980, 1987) und Penrose (1991), S. 15 ff., ausführlich geführt worden. Eine ähnliche Diskussion wird ab Ende 2022 wieder im Zusammenhang mit dem Chatbot ChatGPT (Generative Pre-Trained Transformer) geführt.

33 Zur Funktionsweise siehe auch Schulman et al. (2022).

34 Das Erreichen dieser Grenze wird mit dem Ausdruck Red Brick Wall bezeichnet, vgl. Abschnitt 8.1.1.

35 Hier ist allerdings eine Einschränkung zu machen: Der Quantencomputer kann ebenfalls nur die auf klassischen Computern auch berechenbaren Probleme berechnen, er kann sie aber möglicherweise wesentlich schneller und mit höherer kombinatorischer Tiefe bearbeiten. Siehe Arronson (2013). Zu erwähnen sind die befürchteten negativen Folgen, wonach es keine zuverlässigen Codes mehr geben könnte, die man nicht entschlüsseln kann.

36 Zum modernen Sklaventum siehe Abschnitt 3.5.8.

37 John von Neumann hielt sich selbst reproduzierende Automaten für möglich. Vgl. von Neumann (1951). Da jede biologische Zelle letztlich ein solches selbstreproduzierendes System darstellt, muss ein solcher Prozess physikalisch möglich sein. Man kann allerdings zeigen, dass Rechner, die nach der Von-Neumann-Architektur gebaut sind, im strengen Sinne also gekoppelte Turing-Maschinen darstellen, solche Prozesse nicht realisieren können. Vgl. Kornwachs (1989 SFI).

38 Friedrich Nietzsche (1879), S. 40.

39 Misselhorn (2013).

40 Pohlmann (1971), S. 702 f.

41 Die Autonomie des Willens wird bei Kant definiert als „die Beschaffenheit des Willens, dadurch derselbe ihm selbst (unabhängig von aller Beschaffenheit der Gegenstände des Willens) ein Gesetz ist. Das Prinzip der A. ist also: nicht anders zu wählen als so, daß die Maximen seiner Wahl in demselben Wollen zugleich als allgemeines Gesetz mit begriffen seien“. Vgl. Kant: Grundlegung der Metaphysik der Sitten. (1785/1786) BA 88. In: Kant (1968), S. 74.

42 Cohen (1907), S. 327 ff., zitiert nach Pohlmann (1971), S. 712.

43 Pauen/Welzer (2015).

44 Der Begriff ist aus der ethischen und politischen Debatte so übernommen worden. Siehe Ankündigung der Jahrestagung des Nationalen Ethikrats im Juni 2017, Berlin. In: www.ethikrat.org/veranstaltungenjahrestagungen/autonome-systeme.

45 Neuronale Netze sind ein simulierter Nachbau der menschlichen Neuronen, die Verbindungen untereinander aufbauen oder abschwächen können, je nach Häufigkeit des Reizes. Ein erstes technisches Modell hat bereits Steinbuch (1961) vorgestellt, die sogenannte Lernmatrix. Zur Technologie und Programmierung neuronaler Netze siehe Rey/Wender (2018).

46 Ropohl bezieht in seine Technikdefinition nicht nur Geräte, Artefakte etc. mit ein, sondern bettet Entwurf, Herstellung, Gebrauch und Folgen in Handlungssysteme ein, die Ziele, Werte und Störungsmöglichkeiten beinhalten. Vgl. Ropohl (1979, 1999, 2009).

47 Die Unterscheidung stammt vom United States Department of Defense (2011).

48 Ontologie wird an dieser Stelle nicht philosophisch (Lehre vom Sein und Seienden), sondern im Kontext von Informatik und KI gebraucht.

49 Wir können hier nicht die Phänomenologie diskutieren, die ein Roboter in seiner Performance zeigen müsste, damit wir als externe Beobachter die Frage bejahen könnten. Und wieder drängt sich ein Déjà-vu auf: die Frage nach der Erkennbarkeit des Fremdpsychischen, die schon der Wiener Kreis in den 20er-Jahren diskutierte. Vgl. Carnap (1998).

50 Der Vorschlag, Multiagentensysteme einzusetzen, die sich gegenseitig optimieren, ist vergleichsweise alt, heute nennt man ihn kooperative Robotik. Vgl. Hewitt et al. (1973).