8 | Triebfedern der KI |
8.1 | Technische Faktoren |
Gibt es außer den Aspekten, die wir in Kapitel 4 und Kapitel 5 angerissen haben, weitere Faktoren, die die Entwicklung der KI, vor allem aber ihre Anwendung vorantreiben?
8.1.1 | Mooresches Gesetz |
Systemtheoretisch gesprochen gibt es zwei Faktoren, die die technologisch wie organisatorisch beschleunigte Entwicklung bisher ermöglicht haben, die aber nicht unbedingt als alleinig treibende, also aus sich heraus kausale Faktoren, quasi als Gesetze, angesehen werden dürfen. Stattdessen sind es Festlegungen, wenn man so will, also Folgen dessen, was man gewollt hat und noch will. Der erste Faktor besteht in der Steigerung der Leistungsfähigkeit. Technisch war es bis vor kurzem so, dass sich die Leistung von Rechnerbausteinen alle 18 Monate verdoppelt (Mooresches „Gesetz“).1 Dieses Wachstum ist temporär exponentiell. Der zweite Faktor wächst nicht so schnell und ist mehr organisatorischer Natur: Ökonomisch gesehen wächst der Nutzen eines Kommunikationssystems mit dem Quadrat der Anzahl der Teilnehmer.
Die Bezeichnung „Gesetz“ ist beim Mooreschen Gesetz unangebracht, weil es sich zum einen um eine Beobachtung der frühen 70er-Jahre handelte, wonach sich die Funktionsdichte von Computerchips alle 18 Monate verdoppelte, dies aber dann als machbare Vorgabe (Road Map) den Firmen gegenüber propagiert wurde, die sie technologisch dann auch tatsächlich erfüllen konnten. Die Steigerung und Verbilligung der Rechenleistung war eine entscheidende Voraussetzung für die Entwicklung der Form von KI, die mit statistischer Auswertung großer Datenmengen und der Emulation von neuronalen Netzen als lernende Systeme arbeitet. Fast jede Technologie kennt solche typischen Verdopplungszeiten bei der Steigerung ihrer Leistungskurven,2 auf die aber dann über kurz oder lang eine Abflachung folgt, was zur Suche nach neuen Materialien und zu neuen, technologisch nutzbaren Prozessen Anlass gibt.3
Gordon Moore sagte aber auch voraus, dass sich die Produktionskosten pro Chipeinheit alle drei Jahre verdoppeln.4 Dies führt zunächst auch hier zu einer exponentiellen Kurve der Kosten, die sich allerdings im Laufe der Zeit (unter Beibehaltung der gleichen Technologie) zu einer logistischen Kurve abflachen muss. Dies gilt ganz besonders, wenn bei einer Technologie physikalische Grenzen erreicht werden.5 Erste Tendenzen hierzu sind erkennbar.6 Man scheint an die Grenzen der siliziumbasierten Technologie in der Computertechnik auf der Hardwareseite zu gelangen. Hinzu kommt bei dieser Technologie, dass der Energieverbrauch mit der so gewonnenen und fast exponentiell angestiegenen Rechnerleistung zumindest proportional dazu ansteigt.7 Man nennt dieses Abflachen der Leistungskurve in der Halbleiter- und Chip-Industrie die „Red Brick Wall“. Wann sie erreicht sein wird, ist umstritten.
Von daher ist die hektische Suche nach neuen Rechnertechnologien und dann auch neuen Rechenverfahren (Quantencomputer, biologische Computer etc.) verständlich, weil man in der siliziumbasierten Technologie keine Steigerungsmöglichkeiten der Leistung wie bisher gewohnt mehr sieht.8
8.1.2 | Zur Vernetzung |
Dass der Nutzen eines Kommunikationssystems mit dem Quadrat der Anzahl der Teilnehmer wächst, stimmt nur dann, wenn man davon ausgeht, dass jede mögliche Verbindung zwischen den Teilnehmern für alle Teilnehmer9 und/oder für den Betreiber der Verbindungen in vergleichbarer Weise nützlich ist. Auch dies ist kein Gesetz, da die Nützlichkeit durch die konkreten Verhältnisse bestimmt wird. Auf die Nebenfolgen exzessiver Vernetzung gehen wir in Abschnitt 11.2.14 näher ein.
Neben den eher technischen Faktoren betrachten wir im Folgenden die ökonomischen Motivationen.
8.2 | Kapital und/oder Arbeit? |
8.2.1 | Globalisierung: warum und wie sich Kapital und Arbeit entkoppeln |
Es scheint so auszusehen, dass sich eine bremsende Wirkung auf die Globalisierung bemerkbar macht: Dies ist angesichts der Pandemie, der abbrechenden Lieferketten, was alles auch zu Produktionsstillständen und -ausfällen geführt hat, des eingeschränkten und gestörten Reiseverkehrs und Tourismus sowie des durch Parteinahme bei kriegerischen Auseinandersetzungen heruntergefahrenen kulturellen Austauschs nicht verwunderlich. Man denke nur an den Lieferstau, der sich im Frühjahr 2022 vor China wegen des Lockdowns und der eisern durchgehaltenen Null-Covid-Strategie aufgebaut hat.
Die kriegerischen Ereignisse in der Ukraine durch den Angriffskrieg Russlands im Februar 2022 haben das Vertrauen in eine gewisse Stabilität internationaler Wirtschaftsbeziehungen, die bisher mehr oder weniger doch unabhängig von politischen Differenzen bestanden, nachhaltig erschüttert. Die von manchen Ländern angestrebte Tendenz, die Globalisierung zurückzufahren zugunsten einer Aufteilung der Welt in Einflusszonen der Großmächte China und USA, wozu Russland eben gerne mitgezählt werden möchte, wird wohl auch die Neigung zu Protektionismus bestärken. Damit werden die Lieferketten und damit auch die Wertschöpfungsketten wieder verkürzt und regionaler. Der drohende Klimawandel, aber auch die durch den Ukrainekrieg verursachte Energiekrise üben ebenfalls Druck auf die Transportpreise aus, sodass das Wirtschaften wieder lokaler werden dürfte. Damit werden sich auch die Arbeitsmärkte vermutlich wieder zunehmend regionalisieren.
Neben diesen aktuellen Tendenzen, deren Dauerhaftigkeit schlecht abzuschätzen ist, gibt es aber weitere Entwicklungen, die nach wie vor anhalten und schon vor der Pandemie, dem Krieg in Europa und der Klimakrise bestanden: Die Finanzwirtschaft hat sich seit längerem von der Realwirtschaft abgekoppelt. Dies ist nicht nur durch die Aufhebung der Goldbindung des Dollars und die Aufhebung der Schranken von Bretton Woods geschuldet,10 sondern auch der weltweit zu beobachtenden Tatsache, dass zum Beispiel die Besteuerung des Einkommens aus Arbeit durch die Progression immer noch höher ist als die konstante Besteuerung der Einkünfte aus Kapital über Zinsen und Vermögen. Die Nullzinspolitik der letzten Jahre änderte daran wenig: Die Kapitaleinkünfte sanken zwar; dafür aber stiegen die Aktiengewinne, die ebenfalls niedriger besteuert werden als Einkommen aus Arbeit. Die Rücknahme der Nullzinspolitik im Juli 2022 wird diese Asymmetrie weiter verstärken.
Die Entkopplung von Arbeit und Kapital sowie die Dequalifizierung – d. h. der Wegfall von bisher nützlichen Qualifikationen – auf dem Arbeitsmarkt durch fortschreitende technologische Ersetzung der unteren bis mittleren Arbeitskraft haben zu folgender Dynamik geführt:
Die Geldmenge, die aus den Kapitaleinkünften (Zins, Aktien etc.) gewonnen wird, der aber kein ökonomisches, will sagen realwirtschaftliches Äquivalent gegenübersteht, hat weltweit einen größeren Anteil an der Gesamtmenge; das Verhältnis von kumulativen Investments bei der Realwirtschaft zu denen der Finanztransaktionen betrug im Jahr 2017 etwa 13,62 %.11
1,1 % der Weltbevölkerung verfügen über 45,8 % des weltweiten Vermögens, 55 % der Weltbevölkerung besaßen 2020 1,2 % des weltweiten Vermögens.12
Mit der so gewonnenen Geldmenge, aber auch mit der Geldmenge, die aus einem Vermögen heraus flüssig gemacht werden kann, kann man berechtigte Ansprüche einlösen, auch wenn dieser Geldmenge kein realwirtschaftliches Äquivalent mehr zugrunde liegt.
Mit diesem Geld kann man auch investieren und so wirtschaftliche und in der Folge politische Macht ausüben. Diese Macht ist demokratisch nicht kontrollierbar, es sei denn, man würde wieder zu national abgeschotteten Volkswirtschaften zurückkehren und die internationalen Finanzströme durch massive Transaktionssteuern drosseln oder gar unterbinden.
Diese Zusammenhänge sind deshalb bedeutsam, weil die Gewinne aus Finanzwirtschaft und Spekulation reinvestiert werden,13 und zwar meistens so, dass die Gewinne aus der technologischen Effizienzsteigerung den Investoren in diese Technologie zugutekommen. Die Erfinder, Gestalter und Produzenten der Technologie sowie die Lohnempfänger gehen in der Regel, zumindest im Vergleich zu den returns of investment, leer aus. Wer also nichts anderes zu verkaufen hat als seine Arbeitskraft, wird bei diesen Verhältnissen nie zu einem nennenswerten Vermögen kommen, das ihm und seiner Familie ein stressfreies, d. h. schuldenfreies und womöglich arbeitsfreies Leben ermöglichen könnte.
8.2.2 | Digitalisierung: wie sich das Kapital seine Technik sucht |
Dass – wie schon gesagt – das Kapital um den Erdball jagt und sich seine Verwertungsmöglichkeiten sucht, ist seit Karl Marx ein Gemeinplatz14 und hat sich in den ersten Globalisierungswellen wieder eindrucksvoll gezeigt. Neben der Spekulation, die auch vor Nahrungsmitteln, Wasser, landwirtschaftlichem Grund, Altersversorgung etc. nicht Halt macht, ist die Investition in neue Technologien immer noch vielversprechend, weil sie auch mit einem Erwartungsmanagement verbunden ist: Die Protagonisten einer „neuen“ Technologie sind Meister von Zukunftserzählungen und die IT-Branche hatte schon immer ein etwas großes Mundwerk. Das ist mit den Protagonisten der KI auch nicht viel anders. Mit Versprechen auf die Zukunft sollen sowohl steuerfinanzierte Forschungsgelder als auch privatwirtschaftliche Investitionen angelockt werden.
Der Technikphilosoph Günter Ropohl hat aufgezeigt, wie die Technikentwicklung dem Kapital neue Verwertungsmöglichkeiten bietet.15 Gleichzeitig ist die beschleunigte Technikentwicklung auch als Ergebnis beschleunigter Kapitaldynamik zu sehen, denn Technik entwickelt sich nicht eigengesetzlich, sondern – nach Ropohl – entlang der zu erwartenden Verwertungslinien des Kapitals. Kein vernünftiger Investor wird eine Erfindung oder eine Entdeckung, die beim Erfinder oder Entwickler zu einer Funktions- und darauf aufbauend zu einer Produktvermutung geführt hat, finanziell unterstützen, wenn er sich nicht einen Gewinn davon verspricht. Das bedeutet auch, dass die Funktionsvermutung zu einem gewissen Grad vor der Investitionsentscheidung getestet sein muss.
Ein Gewinn ergibt sich, wenn der Erlös eines Produkts die Kosten für Maschinen, Organisation und Arbeitskräfte übersteigt. Die Verwendung des Gewinns geschieht im Idealfall überwiegend durch Re-Investitionen, und zwar für Rationalisierung, Entwicklung neuer Technik für die Produktion neuer Produkte und Dienstleistungen, aber auch für die technisch getriggerte Substitution von Arbeitskraft, z. B. wenn die zusätzlichen Maschinenkosten (z. B. Abschreibung) niedriger sind als die eingesparten Arbeitslöhne. Diese Zielvorgabe führte unter anderem dazu, dass seit den 1950er-Jahren in der BRD akkumulativ eine siebenfache Steigerung der Arbeitsproduktivität festzustellen war.16 Dass aber diese Rate, wenn man sich z. B. Frankreich, Deutschland, Großbritannien und die USA ansieht, tatsächlich im Zeitraum von 1951 bis 2019 trotz Digitalisierung und Roboterisierung im Schnitt um rund vier Prozentpunkte gesunken ist,17 ist doch erklärungsbedürftig (siehe Bild 8.1).
Bild 8.1 Produktivitätsentwicklung in vier Industrieländern18
Wenn Produktionsmenge und Absatzerlös in der folgenden Periode gleich bleiben, erhöht sich der Gewinn, der wiederum in Maschinen, Rationalisierung und Vereinfachung von Produktionsabläufen investiert werden könnte. Die Kosteneinsparung durch Technisierung könnte dann als Preissenkung weitergegeben werden, solange die Rendite, also das Verhältnis von Gewinn zu eingesetztem Kapital, nicht kleiner ist als der Zinssatz auf den Finanzmärkten. Andernfalls wäre es klüger, die eingesparten Gelder dort zu investieren. Dies scheint aber mehr der Fall gewesen zu sein, als es tatsächlich aus rationalem ökonomischen Denken heraus zu erwarten gewesen wäre. Denn bei billigen Zinsen wächst der Druck der Technisierung und der Ruf nach „Innovationen“ erschallt. Diese Rhetorik war ja allenthalben in den Industriestaaten und Schwellenländern ab den 70er-Jahren zu hören. Trotz dieser Rhetorik wuchsen die Flüsse in den Finanzmarkt schneller als in die Technologieinvestitionen.
Wächst das Kapital schneller, als es bei konstanter Produktion weiter verwertet werden kann, weicht es neben Rationalisierungsinvestitionen in Erweiterungsinvestitionen (d. h. Vergrößerung der Märkte oder Marktanteile) und eben in den Finanzmarkt aus. Erweiterungsinvestitionen sind in der Regel durch Produktinnovationen, zuweilen auch durch Prozessinnovationen möglich. Das geschah auch, aber womöglich zu wenig.
Parallel dazu ereignete sich das, was man als die konsumistische Wende bezeichnet hat: mit neuen Produkten (Innovationen) neue Märkte und mit entsprechendem Marketing neue Konsumenten hierfür zu erzeugen. Illustrieren lässt sich das an der Tatsache, dass 10 % des geschätzten Privatvermögens in der BRD an technische Gebrauchsgüter gebunden sind (ca. ½ Billion €). Der Verwertungsdruck ist also doch erheblich.19
Hier wird der Zusammenhang deutlich, wenn man bedenkt, welche Folgen die wachsende Produktivität und ein weltweit wachsender Konsum haben werden und dass eine verantwortbare Technikgestaltung, die die Arbeitswelt umkrempelt, mit der Problematik der Abhängigkeit vom technologischen Fortschritt zu tun hat, der wiederum von global orientierten, kapitalstarken Wirtschaftspotenzialen bestimmt wird. Selbstredend gilt dies auch für die Technik der Digitalisierung von Produktion, Dienstleistung und Privatleben und damit auch für die KI.
8.2.3 | Der Mensch – zu langsam und zu teuer? |
Unter Maschinen verstehen wir in diesem Buch ganz allgemein Vorrichtungen, die Prozesse unterstützen, gelenkt oder automatisiert durchführen oder steuern. Sie können Teilmaschinen, Werkzeuge, Sensoren, Aktoren und Computer und Programme, also auch KI enthalten. Sehen wir uns die Behauptung näher an, dass Maschinen billiger und Programmierer hinsichtlich der Produktivität effizienter seien als Menschen, die die Arbeit ausführen. Das stimmt, wenn man den Berechnungshorizont geeignet wählt – das berühmte: „Es kommt darauf an.“ Wenn man die Maschinen schon entwickelt hat, wenn sie marktgängige Produkte auf dem Markt für Investitionsgüter sind und wenn die Entwicklungskosten in gewisser Weise schon amortisiert sind, dann mag die Behauptung stimmen.
Besteht jedoch der Grund für das weltweite Nachlassen des Wirtschaftswachstums in der globalen Deindustrialisierung mit einem weltweiten Überschuss an Produktionskapazitäten, dann wird es schwierig, die alten Wachstumsraten zu halten.20 Die Produktivität sinkt und ebenso die Nachfrage nach Arbeitskräften. Das macht sich nicht so sehr in Arbeitslosigkeit, sondern im Anwachsen der prekären Arbeitsverhältnisse bemerkbar. Damit einher gehen die Versuche, die soziale Absicherung und deren Institutionen abzubauen oder zu schwächen.21 Wenn nun dadurch die Löhne sinken bzw. deren Kaufkraft, da sie inflationsbedingt nicht mehr steigt, die Managergehälter jedoch exorbitant steigen, dann kann ein Punkt erreicht sein, ab dem es sich für Unternehmen nicht mehr rechnet, für die Entwicklung und den Kauf in teure Robotik zu investieren, wenn die erforderliche Arbeit billiger und flexibler durch Arbeitskräfte, die sich organisatorisch nicht wehren können, zu haben ist.22 Was bedeutet dies für die Qualifikation?
8.3 | Innovation und Qualifikationsangebot |
8.3.1 | Qualifizierungslücke |
In Abschnitt 5.4.1 haben wir das Produktivitätsparadox23 aufgegriffen, wonach das Aufkommen neuer Technologien und deren Entwicklung nicht nur vom Kapitaleinsatz, sondern auch schon von bereits vorhandener, sozusagen vom Bildungssystem vorgehaltener Qualifikation stimuliert wird. Daher wurde die These aufgestellt, dass bestimmte technische Entwicklungen vom steigenden Niveau und der zunehmenden Verfügbarkeit von Qualifikationen bestimmt werden. Investitionen sind dabei zwar notwendig, aber nicht hinreichend.24
Nun hatten wir auch festgestellt, dass alte und neue Technologien zumindest eine Weile koexistieren. Die alte, bestehende Technologie hat gewisse Qualifikationsanforderungen, die der Arbeitsmarkt auf dem geforderten Level auch hergibt, allerdings ist zunächst über die Dynamik der Zahl derer, die mit dieser Qualifikation verfügbar sind, noch nichts ausgesagt. Die neue Technologie führt zu neuen Qualifikationsanforderungen, denen nachzukommen der Arbeitsmarkt durch Defizite in der beruflichen Aus- und Weiterbildung nicht oder nicht genügend schnell in der erforderlichen Zahl schafft.
Wenn die Überlegungen in Abschnitt 5.5.2 richtig sind, ist es schwierig, bei den Qualifikationsanforderungen an die Beschäftigten nicht nur Anstrengungen zu unternehmen, die Qualifizierungslücke aufholend zu schließen, sondern auch Qualifikationen, die noch nicht aktuell gebraucht werden, aber in Zukunft aller Einschätzung nach gebraucht werden könnten, gleichsam präventiv bereitzustellen. Die Geschwindigkeit der Aufholjagd lässt sich nicht allzu sehr beschleunigen und die Akzeptanz neuer Qualifikationsanforderungen, die noch keine Entsprechung am Arbeitsmarkt haben, ist sicher schwierig herzustellen. Wenn nun alte und neue Technologien eine Weile nebeneinander koexistieren und für die alten Technologien noch genügend Personal mit den dafür geeigneten Qualifikationen vorhanden ist, dann könnte man sich zwei Maßnahmen vorstellen:
1. Die Laufzeit der alten Technologien wird verlängert. Dies ist dann attraktiv, wenn die Qualifizierungsaufwände für diese alte Technologie gleichsam schon amortisiert sind und das Lohnniveau noch nicht allzu sehr angestiegen ist, sodass die Produktivität der alten Technologie noch mit der zu erwartenden Produktivität der neuen Technologie aufgrund der hohen Anschaffungs- und Umstellungskosten vergleichbar ist. Diese Lösung ist allerdings im öffentlichen Diskurs als innovationsfeindlich verpönt und wird, da sie ja tatsächlich praktiziert wird, als Trägheit der Unternehmen gebrandmarkt.
2. Die zweite Maßnahme besteht in einem etwas paradoxen Einsatz von KI. Wenn es möglich ist, die Arbeitsaufgabe durch den Einsatz von Technik zu ersetzen, dann muss die Steuerung dieser Arbeitsaufgabe von jemandem Hochqualifizierten übernommen werden. Wenn man KI nun dazu benutzt, diese Steuerungsaufgabe durch Gestaltung der Bedieneroberfläche so einfach zu machen, dass auch ein weniger qualifizierter Mitarbeiter diese Steuerung übernehmen kann, dann gibt es wiederum zwei Möglichkeiten: (a) Wenn diese Aufgabe dann so einfach gestaltet ist, kann sie ja gleich an einen Computer und an den entsprechenden Algorithmus delegiert werden. (b) Man verzichtet auf diese technische Möglichkeit und versucht die Arbeitsaufgaben so zu strukturieren, dass für niedriger Qualifizierte sogenannte Low-Tech-Aufgaben entstehen.25
Es ist unstrittig, dass innovative Technik Arbeitsplätze vorrangig im Hochqualifikationsbereich schafft. Sie eliminiert damit Arbeitsplätze im niedrigen und teils mittleren Bereich, dies ist aber nicht der alleinige Faktor für diesen Eliminationseffekt.26 Im Augenblick geht man davon aus, dass nur ein entsprechendes hohes Wachstum, das aber nicht in Sicht ist, und/oder ein Spreizen des Entlohnungsspektrums (das politisch umstritten ist und möglicherweise zu erheblichen sozialen Spannungen führen würde) zur Schaffung „einfacher“ Arbeitsplätze führen könnte.
8.3.2 | Low Tech und einfache Arbeitsplätze |
„Einfach“ würde hier bedeuten, dass solche Arbeitsplätze mit niedriger Qualifikation zu besetzen sind und die entsprechenden Arbeitsaufgaben damit bewältigt werden können. Das bedeutet, dass einfache Bedienungsoberflächen vorliegen und dass die Arbeitsinhalte einfach sind in dem Sinne, dass sie entsprechend sinnlich zugänglich und mit vergleichbar niedrigem Abstraktionsgrad erfasst und erfolgreich durchgeführt werden können.27 Es gibt eine verblüffende Analogie zu dieser Forderung, nämlich die aus der demografischen Entwicklung angestoßene Forderung nach altersgerechter Technikgestaltung. Auch hier verlangt man einfache Bedienungsoberflächen aufgrund der Reduktion der physischen und psychischen Leistungsfähigkeit, die im Alter zum Teil durch Erfahrungen kompensiert wird. Allerdings sind dies meist Erfahrungen, die eben aus einer noch nicht so technisierten Welt stammen. Damit würde auch eine Vereinfachung der Bedienungsschritte und nicht nur eine Vereinfachung des Layouts erforderlich.
Nun könnte man dagegen argumentieren, dass eine einfache Bedienung immer automatisiert und letzten Endes eliminiert werden kann: Die Automatisierung besteht ja gerade in der Ersetzung hoch repetitiver Anteile von „einfachen“ Arbeitsinhalten durch maschinelle Schritte. Das zweite Gegenargument wäre, dass einfache Arbeitsinhalte überflüssig sind, weil man sie wegrationalisieren kann. Bleibt dann noch die Bewältigung der Arbeitslosigkeit durch Doppelbesetzung von eigentlich überflüssigen Aufgaben. Zu Zeiten des Sozialismus wurde die Arbeitslosigkeit z. B. dadurch kompensiert, dass sich in Aufzügen bisweilen gleich zwei Aufzugsführer befanden, die Knöpfe drückten, obwohl dies die Passanten selbst und ganz alleine hätten tun können.
Trotz dieser Gegenargumente, die von der technisch-organisatorischen Seite her unbestritten sind, wäre darüber nachzudenken, ob nicht doch ein Gestaltungsauftrag an die Technikwissenschaft besteht, zu einer Technik beizutragen, die sich an der Qualifizierbarkeit des Menschen orientiert. Das würde bedeuten, dass die Schaffung einfacher Arbeitsplätze als soziotechnische Aufgabe eben auch eine Aufgabe der Technikgestaltung werden könnte. Das bedeutet auch, dass wir nicht nur über Investitionen diskutieren, die in innovative Entwicklungen in der Produktgestaltung (einschließlich ihrer organisatorischen Hülle), d. h. in Märkte gesteckt werden, sondern auch über Investitionen, die in die Gestaltung der Arbeitswelt und damit in den Arbeitsmarkt selbst gesteckt werden. Zu dieser Gestaltung könnte die Technikwissenschaft einen Beitrag leisten.
Auch hier muss man sich mit einem Einwand auseinandersetzen: Investitionen in Forschung und Entwicklung im privatwirtschaftlichen Bereich zielen auf den mikro- und mesoökonomischen return of investment. Sie werden für die unternehmerische Entscheidung genuin als betriebswirtschaftlicher Faktor angesehen. Technologische Investitionen in die Schaffung qualifikationsverträglicher Arbeitsplätze würden dann zu einer Gemeinschaftsaufgabe, die höchstens auf einen makroökonomischen return zählen kann. Dies liegt zunächst einmal außerhalb des Skopus unternehmerischer Entscheidungen und eine solche Aufgabe wäre deshalb ein typisches Beispiel für die Notwendigkeit staatlicher Förderung. Hier wäre allerdings zu vermerken, dass gerade überbetriebliche und auch staatliche Programme, wie seinerzeit das „Projekt der Humanisierung der Arbeit“ (später dann „Arbeit und Technik“), dazu führen können, dass die Umsetzung von Gestaltungsleitlinien durchaus auch über einen Sekundäreffekt zu einem betriebswirtschaftlichen return of investment führen kann. Damit könnte auch die Gestaltung einfacher Arbeitsplätze zu einem bedenkenswerten Teil der Unternehmenskultur führen.
Betrachtet man sich das Beispiel eines Schaffners im Zug, der nicht nur Karten kontrolliert, sondern mittels seines tragbaren Fahrkartencomputers Auskünfte, Umbuchungen und Kontrollfunktionen durchführt, so stellt man fest, dass diese Aufgabe auf weniger qualifizierte Mitarbeiter übertragen werden könnte, wenn sich die technisch-abstrakte Anforderung an dieses Gerät durch eine geschickte Gestaltung vermindern ließe. Dann könnte sich der Schaffner mehr auf seine soziale Kompetenz, denn auf seine technologische Kompetenz konzentrieren.
Die Neigung, die Dienstleistungserbringung hin zum Dienstleistungsnehmer zu verlagern (man denke an das leidige Beispiel von Fahrkartenautomaten), verschiebt die Qualifikationsanforderungen auch in den technisierten Alltag hinein und hat deshalb nicht nur Auswirkungen in der Arbeitswelt. Auch hier gilt in gewisser Weise Ähnliches, wie vorangehend gesagt worden ist: Wenn das Qualifikationsangebot in der Arbeitswelt, die diese automatisierten und autonomisierten Technologien anfordern und einsetzen will, nicht wesentlich erhöht werden kann, dann müssen sich die Qualifikationsanforderungen vonseiten der Technologie in gewisser Weise dem Vorhandenen und Möglichen anpassen. Dies gilt letzten Endes auch für eine wie auch immer neu vorzunehmende Arbeitsteilung, die sich dann nicht primär an der Aufteilbarkeit technologischer Funktionen, von Maschineneinsätzen und Prozessen orientieren sollte. Eine herausfordernde Hoffnung wäre, dass sich eine neue Arbeitsteilung eher an die Grenzen der Verantwortungsbereiche, an den Bedarf von Sinnhaftigkeit und Identitätsbildung und damit an die Anerkennungsbereiche menschlicher Arbeit anschmiegt.28
Ob der künftige Einsatz des Ende 2022 auf den Markt gebrachten Chatbots ChatGPT dieses Problem lösen kann, ist noch unklar. Fest steht, dass auch mit geringen Kenntnissen des Nutzers verblüffende Ergebnisse (Texte, Auskünfte, sogar Kunstwerke wie Gedichte oder Bilder) generiert werden können. Allerdings stellt die Qualitätskontrolle der Ergebnisse dann doch gewisse Qualifikationsanforderungen.
8.4 | Zusammenfassung |
Zu den Triebfedern der KI gehören zum einen die Anforderungen, die im Mooreschen Gesetz formuliert werden: Aus der Erfahrung weiß man, dass eine Verdoppelung der Leistungsfähigkeit einer Technologie innerhalb eines bestimmten charakteristischen Zeitraums für eine gewisse Zeit lang möglich ist. Daraus formuliert man die Forderung, dass die Weiterentwicklung so auch weiter betrieben werden solle. Das Gesetz ist also eher eine Road Map für das Management von Innovationen. Allerdings stößt mittlerweile das Mooresche Gesetz der Verdopplung der Leistungsfähigkeit von Chips alle 18 Monate an seine physikalischen Grenzen.
Eine weitere Triebfeder der KI ergibt sich aus den erhofften Potenzialen, die aus dem quadratischen Nutzen der Vernetzung resultieren, wenn man die einzelnen Komponenten miteinander funktionell verbindet.
Da die Finanzwirtschaft sich seit längerem von der Realwirtschaft abgekoppelt hat, ist auch eine Entkoppelung von Arbeit und Kapital und damit auch eine Dequalifizierung auf dem Arbeitsmarkt durch fortschreitende technologische Ersetzung zu beobachten. Die Konsequenzen sind unter anderem eine nicht demokratisch kontrollierbare Machtzunahme im Finanzsektor.
Hinzu kommt, dass sich das frei werdende Kapital Investitionen „sucht“ und diese neben anderen Verwertungslinien auch in Investitionen zur Technikentwicklung findet. Allerdings flossen bislang die Mittel mehr in den Finanzmarkt als in Technologieinvestitionen. Unter diesen Randbedingungen und unter weltweitem Nachlassen des Wirtschaftswachstums mit einem weltweiten Überschuss an Produktionskapazitäten gibt es zwei Stränge der Entwicklung: Einerseits investieren klassische Unternehmen nicht mehr so häufig in den Kauf teurer Robotik, wenn der Einsatz kostspieliger ist als der Einsatz billiger, ungelernter Arbeitskräfte, andererseits muss aber die sich ergebende Qualifikationslücke irgendwo ausgefüllt werden. Wenn die letzte Komponente überwiegt, dürfte dieses eine der entscheidenden Triebkräfte für Einsatz und Weiterentwicklung von KI sein. Ob man dem Low-Tech, Chatbots und einfache Arbeitsplätze entgegenhalten kann, um die Folgen weltweiter Dequalifizierung zu vermeiden, ist in der Prognose unklar, wäre aber eine mögliche Forderung, um den sozialen Frieden aufrechtzuerhalten.
1 Nach Gordon Moore (1929). Vgl. Moore (1965).
2 Zum Beispiel Leuchtmittel und Antriebe. Vgl. Bullinger (2007), Abbildung auf S. 7.
3 Eine Technologie, bei der seit 1980 kein exponentieller Anstieg der Leistungsfähigkeit mehr zu verzeichnen war, ist die Blei-Säure- und Nickel-Cadmium-Batterie. Einen gedämpften linearen Anstieg zeigte seit dieser Zeit die Nickel-Metallhydrid-Batterie und exponentiell seit 1990 die Lithium-Ionen-Batterie bezüglich der Energiedichten (Wattstunden/kg). Vgl. Zu/Li (2011). Die bislang zögerliche Entwicklung war und ist die Achillesferse für die Weiterentwicklung der Elektromobilität und der effizienten Speichermöglichkeiten für nachhaltige, aber volatile Energie (Wind, Sonne).
4 Moore (1965).
5 Hier: Materialproblem bei weiterer Miniaturisierung von Transistoren in Chips auf ca. 20 nm bis in den Bereich der quantenmechanischen Effekte.
6 Shalf (2020).
7 Dies hat physikalische Gründe: Man braucht für jede Verarbeitung oder Übertragung eines Bits bei Zimmertemperatur (ca. 21 °C) aus thermodynamischen Gründen mindestens die Energie von rund 2,81 ∙ 10–21 Joule/bit. Vgl. Toffoli (1982), Peters (1970) und Völz (2018), S. 197. Bei einem Wirkungsgrad von unter 100 %, was aus physikalischen Gründen ebenfalls immer der Fall ist, gibt jeder Rechner Abwärme ab. Es ist schon die Idee entstanden, große Rechenzentren zur Nahwärmeversorgung heranzuziehen. Vgl. Grünwald/Caviezel (2022).
8 Vgl. zu den Versuchen, mit neuen Verfahren und Stoffen diese Grenzen zu überwinden, Mizsei/Lappaleinen (2019).
9 Die Anzahl der möglichen Verbindungen (ungerichtet) zwischen n Teilnehmern beträgt n(n − 1)/2, verläuft also bei immer größerem n immer mehr entsprechend einer quadratischen Kurve.
10 Siehe auch Abschnitt 5.2.1.
11 Die Transaktionsvolumina in Finanzströmen (7890 Mrd. €) sind in den letzten Jahren sehr viel stärker gestiegen als die Investitionen in reale Güter (1087 Mrd. €). Vgl. Sigl-Glöckner (2018), Grafik „Vergleich Kumulative Investments Finanztransaktionen versus Realwirtschaft“.
12 https://de.statista.com/statistik/daten/studie/384680/umfrage/verteilung-des-reichtums-auf-der-welt.
13 Der Anteil der Nutzung dieser Gewinne für ein Luxusleben der Oligarchen oder Unternehmer ist vergleichsweise gering angesichts der Investitionssummen.
14 Karl Marx; Friedrich Engels: Kommunistisches Manifest (1959).
15 Ropohl (2002a).
16 Ropohl (2002a).
17 Blickpunkt Wiso: http://www. blickpunkt-wiso.de/Uploads/diagramm1153.png.
18 Bild: © Blickpunkt WiSo. Quelle: http://www.blickpunkt-wiso.de/Uploads/diagramm1153.png. Siehe auch: Michael Wendl: Auf dem Weg in den digitalen Kapitalismus? 14. März 2019. https://www.blickpunkt-wiso.de/post/auf-dem-weg-in-den-digitalen-kapitalismus--2280.html
19 Ropohl (2002a).
20 Benanav (2021), S. 57.
21 Ebd., S. 93.
22 Ebd., S. 29 ff. Siehe auch Besprechung von Schaupp (2021).
23 Brynjolfsson et al. (2017), Stehr (2000).
24 Kornwachs/Stehr (2021). Ich komme in Abschnitt 8.3 nochmals darauf zurück.
25 Hirsch-Kreinsen (2016).
26 Modelle zeigen, dass die Automatisierung bei gering qualifizierten Arbeitnehmern die Lohnungleichheit erhöht, die Automatisierung bei hochqualifizierten Aufgaben die Ungleichheit jedoch verringert. Vgl. Acemoglu, Restrepo (2018c).
27 Hirsch-Kreinsen et al. (2005).
28 Ähnliche Forderungen werden in Herzog (2019) erhoben.