13.3 Ethische Fragen
Kann man den Einsatz von KI-Systemen zur Software-Entwicklung von einem ethischen Standpunkt überhaupt gutheißen? Diese Frage ist am Ende dieses Buchs vielleicht ein wenig spät gestellt. Tatsache ist, dass KI-Tools mehr Schattenseiten haben als gelegentliche falsche Antworten. Damit setzen wir uns in diesem Abschnitt auseinander.
Beschränkung auf den KI-Einsatz zum Coding
Wir haben es im Vorwort schon geschrieben und weisen hier noch einmal darauf hin: Dieses Buch beschäftigt sich mit künstlicher Intelligenz ausschließlich im Kontext der Software-Entwicklung.
Natürlich wissen wir, dass mit KI-Werkzeugen Fake-News, -Bilder und -Videos erzeugt werden, dass KI-Algorithmen das Potenzial haben, ganze Berufsgruppen arbeitslos zu machen. Die künstliche Intelligenz hält in immer mehr Bereiche unseres Lebens Einzug. Die daraus resultierenden Probleme werden unsere Gesellschaft grundlegend verändern. Diese Probleme sind unbestritten, sie sind aber so wie jede KI-Anwendung außerhalb des Codings nicht das Thema dieses Buchs.
Das Gleiche gilt für die dystopische Frage, ob sich KI-Modelle demnächst zu einer Superintelligenz weiterentwickeln und dann die Weltherrschaft übernehmen. Noch ist das der Stoff von Science-Fiction-Büchern und -Filmen. Beunruhigend ist nur, wie viele renommierte KI-Forscher darin eine reale Gefahr sehen:
Die Herkunft des KI-Wissens
Jeder von uns drei Autoren hat vor diesem Buch schon andere Bücher geschrieben. Immer wieder haben wir uns die Frage gestellt: Wurden unsere Bücher auch für das Training der Sprachmodelle verwendet, deren Anwendung wir hier beschreiben? Wurden unsere Beiträge in Diskussionsforen verwendet, unser auf GitHub gespeicherter Code, die Artikel unserer Blogs? Diese Fragen sind schwer zu beantworten. Die meisten KI-Anbieter sind sehr schmallippig, wenn es um eine genaue Beschreibung des Trainingsmaterials geht.
Eine andere Frage ist dagegen ganz einfach zu beantworten. Was haben wir dafür bekommen, dass unser Wissen – in welcher Form immer – für das Training von LLMs verwendet wurde? Definitiv nichts!
Die Firma Microsoft, die in der Vergangenheit bei Copyright- und Lizenzfragen stets eine sehr strenge Einhaltung aller erdenklichen (und nicht erdenklichen) Regeln forderte, vertritt beim KI-Training überraschend liberale Ideen. Mustafa Suleyman, CEO (Geschäftsführer) für KI-Fragen bei Microsoft, formulierte es so: »I think that with respect to content that’s already on the open web, the social contract of that content since the ’90s has been that it is fair use. Anyone can copy it, recreate with it, reproduce with it. That has been ‘freeware,’ if you like, that’s been the understanding.« (26.6.2024) Naturgemäß ist diese Aussage auf viel Kritik gestoßen. Letzten Endes hat Herr Suleyman aber nur ausgesprochen, was sich andere KI-Firmen vermutlich im Stillen denken.
Nun steht außer Frage, dass eine faire Abgeltung von Trainingsmaterial, das aus Milliarden Seiten Text, aus Terabyte von Daten besteht, nahezu unmöglich ist. Wer soll wie viel bekommen? Wie lässt sich überhaupt nachvollziehen, welchen Beitrag ein Text auf das gesamte Sprachmodell hat? Das Nachvollziehen jedes einzelnen Urhebers wäre mit riesigem Aufwand verbunden. (Denken Sie an Seiten wie StackOverflow mit Beiträgen von Millionen von Entwicklern oder an Artikel auf der Wikipedia, an denen viele Autoren mitgearbeitet haben.) Aber wenn man der Denkweise von Microsoft folgt, ist StackOverflow eine großartige Freeware-Wissensbasis für das KI-Training. Gleichzeitig gerät das Geschäftsmodell von StackOverflow durch KI-Angebote ins Wanken. Ist das »fair use«?
Die Schwierigkeiten bei der Realisierung einer gerechten Wissensabgeltung ändern nichts daran, dass das ganze KI-Geschäftsmodell eine massive Schlagseite hat. Auf der einen Seite stehen milliardenschwere IT-Firmen, die Geld mit KI-Technologie verdienen. Auf der anderen Seite steht die gesamte Menschheit, die dieses Wissen geschaffen hat.
Zugegeben, viele KI-Angebote im Web sind – mit gewissen Einschränkungen – kostenlos erhältlich. Trotzdem empfinden wir es als irritierend, dass unser auf GitHub gespeicherter Code zum KI-Training genutzt wird, wir aber gleichzeitig für die Anwendung des (auch) mit unserem Code trainierten Modells in GitHub Copilot wieder zahlen müssen.
Unbestritten kosten die KI-Forschung, das Training von KI-Modellen usw. eine Menge Geld. KI-Firmen brauchen eine Möglichkeit, Geld zu verdienen, sonst ist eine Weiterentwicklung schwer möglich. Soweit ist in unserem kapitalistischen Weltbild alles irgendwie in Ordnung. Offen bleibt, ob ein Teil der Einnahmen nicht doch dorthin zurückfließen sollte, wo das Wissen geschaffen oder zugänglich gemacht wurde (Schulen, Universitäten, Verlage etc.).
Früher oder später werden Gerichte entscheiden müssen, welche Daten zum KI-Training unter welchen Bedingungen verwendet werden dürfen. Um die Nutzung von GitHub-Code zum KI-Training ist bereits ein Rechtsstreit entbrannt. Im September 2024 sah es so aus, als würden sich die Richter auf die Seite Microsofts stellen:
https://www.developer-tech.com/news/judge-dismisses-majority-github-copilot-copyright-claims
Arbeitslose IT-Fachkräfte
Microsoft bewirbt GitHub Copilot mit »55 % faster coding«. Würde das stimmen, könnte eine Firma 35 Prozent ihrer Software-Entwickler kündigen und dem verbleibenden Rest ein Copilot-Abo spendieren. Das geschrumpfte Team würde gleich viel Code produzieren wie zuvor.
Diese Rechnung ist aus verschiedenen Gründen irreführend, nicht zuletzt deswegen, weil Software-Developer eben nicht nur für das Coding zuständig sind. Sie übernehmen viele andere Aufgaben, bei denen die KI-Unterstützung weniger oder gar nicht relevant ist. Dazu zählt nicht zuletzt der (menschliche) Kontakt mit Teammitgliedern und Kunden.
NVIDIAs Chef Jensen Huang lässt das unbeeindruckt. Er geht sogar noch weiter und glaubt, dass Software-Entwickler in Zukunft ganz überflüssig sind. Selbstverständlich ist diese Aussage primär dem Marketing geschuldet. Dennoch müssen sich alle IT-Profis fragen, ob sie sich mit dem Einsatz von KI-Technologien teilweise überflüssig machen. Für uns Autoren gilt: Unterstützen wir mit diesem Buch diesen Prozess?
Totgesagte leben länger
Ganz dramatisch ist das Risiko arbeitsloser IT-Heerscharen definitiv nicht, auf jeden Fall nicht als Folge der neuen KI-Tools. Dazu sind diese noch nicht gut genug. Und selbst für die nahe Zukunft sind wir skeptisch, dass KI-Tools eine Menge echter IT-Jobs ersetzen. Der folgende Blog-Artikel bringt diese Ansicht überzeugend auf den Punkt:
https://dava.ai/n/hank/ai-didnt-take-my-job
Wir erwarten aber, dass KI-Tools die Arbeit in vielen IT-Bereichen massiv verändern werden. Gut ausgebildete, erfahrene Entwicklerinnen und Entwickler werden auf dem Arbeitsmarkt definitiv im Vorteil sein – idealerweise dann, wenn sie KI-Tools effizient einsetzen können.
Interessant ist in diesem Zusammenhang, dass Manager eine andere, oft total überzogene Erwartung haben als Entwickler, die tatsächlich mit KI-Tools arbeiten. Laut einer Studie von Atlassian haben nur knapp 40 % der befragten Teilnehmenden den Eindruck, dass aktuelle KI-Tools ihre Produktivität maßgeblich verbessern. Allerdings erwarten immerhin 60 %, dass KI-Tools innerhalb der nächsten zwei Jahre ihre Produktivität deutlich verbessern werden.
https://www.atlassian.com/software/compass/resources/state-of-developer-2024
Die in diesem Kapitel schon erwähnte alljährliche StackOverflow-Umfrage hat 2024 erstmals ermittelt, ob IT-Fachkräfte wegen KI-Tools um ihren Job fürchten. 68 % sehen diese Gefahr nicht, 12 % schon (der Rest ist unsicher):
Grenzenloser Energieverbrauch
Cloud-basierte KI-Dienste beginnen in Sekundenbruchteilen mit der Antwort und präsentieren diese schneller, als Sie mitlesen können. Mit welchem Energieaufwand das verbunden ist, bemerken Sie erst, wenn Sie versuchen, Sprachmodelle lokal auszuführen. Das MacBook eines der Autoren dieses Buchs befand sich während der Arbeit praktisch dauerhaft im Leerlauf. Das änderte sich nur, wenn Ollama Anfragen an ein Sprachmodell lokal ausführen musste: Sofort stieg der Energiebedarf von 3 Watt auf 20 bis 30 Watt (jeweils ohne Bildschirm, das MacBook war mit einem externen Monitor verbunden). Das sind aber noch bescheidene Werte im Vergleich zum Stromverbrauch eines »klassischen« PCs mit einer NVIDIA-Grafikkarte: Zwar reicht die Rechenleistung dann auch für die deutlich schnellere Verarbeitung größere Sprachmodelle aus, gleichzeitig steigt die Leistungsaufnahme auf mehrere 100 Watt. Das ist irrwitzig!
Die großen KI-Firmen werden angesichts der gerade präsentierten Zahlen nur müde lächeln. Die Rechenzentren zur Ausführung vorhandener KI-Angebote und zum Training neuer Sprach- und Multimedia-Modelle brauchen ähnlich viel Strom wie ganze Kleinstädte. Dank neuer Hardware und besserer Optimierung ist zu hoffen, dass der Stromverbrauch pro Prompt bzw. für das Training neuer Modelle in den nächsten Jahren sinkt. Dem stehen steigende Qualitätsanforderungen und Anwenderzahlen entgegen. In Summe ist zu befürchten, dass der Strombedarf für KI-Anwendungen in den kommenden Jahren weiter steigen wird.
Natürlich braucht auch jeder andere IT-Dienst Strom: Der lokale Betrieb von Notebooks, Monitoren und WLAN-Routern, die Speicherung von Daten in der Cloud, das Streamen und Abspielen eines Videos etc. Aber der Stromverbrauch von KI-Diensten sprengt alle bisher bekannten Relationen. Angesichts der Klimakrise muss die Frage erlaubt sein, wie weit KI-Dienste nachhaltig sind bzw. dies in Zukunft werden können.