Kapitel 13
IN DIESEM KAPITEL
KI wird immer mehr zu einem wichtigen Teil unseres Lebens. In diesem Kapitel erfahren Sie, wie Sie KI richtig und verantwortungsbewusst einsetzen. Wir schauen uns folgende Aspekte an:
Die Informationen in diesem Kapitel beschreiben, wie KI sicher genutzt werden kann und für alle gut funktioniert. Nach der Lektüre dieses Kapitels werden Sie in der Lage sein, dazu beizutragen, dass die Macht der KI genutzt wird, um zu helfen und nicht zu schaden.
Durch die Kombination des Ansatzes des höchsten Guts, regelbasierter und charakterbasierter Ethik – die wir alle in den folgenden Abschnitten behandeln – erhalten Sie einen umfassenderen Rahmen für ethische KI. Damit wird sichergestellt, dass KI-Systeme nicht nur konform, sondern auch in der Lage sind, selbst in komplexen und neuartigen Situationen fundierte ethische Entscheidungen zu treffen.
Beim Einsatz von KI bringt uns der Ansatz des höchsten Guts dazu, uns für Maßnahmen zu entscheiden, die den größten Nutzen bringen. Bei dieser Methode wird das große Ganze betrachtet, und es werden Ergebnisse angestrebt, die der größten Anzahl von Menschen helfen. Bei der KI könnte dies bedeuten, ein Verkehrssystem zu entwerfen, das Staus für alle reduziert, auch wenn dies für einige wenige eine längere Wartezeit bedeutet.
Für diesen Ansatz müssen wir über die Ergebnisse der KI-Maßnahmen nachdenken. Eine KI, die Kinofilme vorschlägt, könnte beispielsweise auf Filme hinweisen, die den meisten Menschen gefallen, anstatt solche, die einen Nischengeschmack ansprechen. Ebenso könnte ein intelligentes Energienetz das Licht in nicht belegten Räumen ausschalten, um Strom für das gesamte Gebäude zu sparen. Beim Ansatz des höchsten Guts geht es darum, was das Beste für die Gruppe ist.
Aber es gibt auch schwierige Fragen. Was passiert, wenn die KI in einem selbstfahrenden Auto bei einem Unfall zwischen zwei Optionen wählen muss, die beide zu einem Schaden am Menschen führen? Das »höchste Gut« würde den Weg mit dem geringsten Schaden wählen, auch wenn er nicht perfekt ist. Es ist nicht einfach zu entscheiden, was »weniger Schaden« verursacht, aber das Ziel ist es, so viele Menschen wie möglich zu schützen.
Auch in der Wirtschaft kann KI diesen Ansatz nutzen. Zum Beispiel könnte ein Unternehmen KI einsetzen, um Preise festzulegen. Die KI könnte einen Preis finden, der niedrig genug ist, damit mehr Menschen das Produkt kaufen, aber immer noch hoch genug, damit das Unternehmen weiterhin einen Gewinn erzielt.
Die verantwortungsvolle Verwendung von GenKI bedeutet jedoch, dass sie nicht den einzigartigen Stil von jemandem zu stark kopiert oder die Arbeit von jemandem ohne Erlaubnis verwendet. Sie müssen ein Gleichgewicht zwischen der Schaffung von Inhalten, die für die Allgemeinheit von Nutzen sind, und der Achtung der Rechte des einzelnen Urhebers herstellen. Bei der Entwicklung von KI, die Geschichten schreiben, Musik machen oder Artikel verfassen kann, müssen wir die KI so anleiten, dass sie die Gesellschaft bereichert und gleichzeitig die Kreativität und das Eigentum des Einzelnen respektiert.
Im weiteren Sinne sollte der Ansatz des höchsten Guts bei der GenKI auch das Potenzial für Missbrauch berücksichtigen und versuchen, den Schaden zu minimieren. Während wir die Macht der KI nutzen, um neue und hilfreiche Inhalte zu generieren, müssen wir ihren Einfluss überwachen und sicherstellen, dass ihre weitreichenden Auswirkungen positiv bleiben.
Die regelbasierte Ethik in der KI funktioniert durch die Festlegung klarer Regeln, die die KI befolgen soll. Diese Regeln sind wie die Verkehrsregeln, die der KI vorgeben, was sie tun oder vermeiden soll. Wenn wir uns die KI in diesem Fall als den Fahrer eines Autos vorstellen, sind die regelbasierten ethischen Grundsätze die Verkehrsregeln, die sie befolgen muss. Dieser Ansatz stellt sicher, dass die KI konsistent und vorhersehbar handelt und festgelegten Richtlinien folgt.
Im Finanzwesen können Institutionen KI so programmieren, dass Faktoren wie ethnischer Hintergrund oder Geschlecht ignoriert werden. Dadurch wird sichergestellt, dass wir Entscheidungen auf der Grundlage des finanziellen Verhaltens und nicht auf der Grundlage persönlicher Merkmale treffen. Auch im Marketing kann die KI auf Regeln zurückgreifen, um manipulative Praktiken zu vermeiden. Auf diese Weise wird sichergestellt, dass sich die KI auf ehrliche und transparente Werbung konzentriert.
Die regelbasierte Ethik spielt bei GenKI-Plattformen wie ChatGPT eine entscheidende Rolle. Sie hilft, die Antworten und Interaktionen der KI ethisch zu steuern. ChatGPT zum Beispiel arbeitet nach einer Reihe von Regeln, die schädliche oder ethisch fragwürdige Interaktionen mit dem Nutzer auf einem Minimum halten sollen. Diese Regeln können verhindern, dass anstößige Inhalte erzeugt werden, und helfen, die Privatsphäre der Benutzer zu respektieren. Sie können auch verhindern, dass sich Benutzer auf betrügerische Praktiken einlassen. Auf diese Weise kann sichergestellt werden, dass die KI-Ausgabe mit den gesellschaftlichen Normen und ethischen Standards übereinstimmt, wodurch ChatGPT letztlich zu einem besseren Werkzeug für alle Nutzer wird.
Das Schadenspotenzial von GenKI geht über die von ihr produzierten Inhalte hinaus. Ohne ethische Regeln kann die zuvor mit Daten trainierte KI die in den Daten gefundenen Vorurteile verstärken, was zu unfairen oder voreingenommenen Ergebnissen führt. Dies ist besonders bedenklich bei Anwendungen wie Rechtshilfe, Gesundheitsberatung oder Bildungsinhalten, wo voreingenommene KI-Ergebnisse schwerwiegende Folgen haben könnten.
Dieser Ansatz der KI-Ethik unterstreicht die Notwendigkeit einer vielschichtigen Strategie, die regelbasierte Rahmenwerke mit anderen ethischen Überlegungen kombiniert. Wenn Sie sich mit Tugendethik und anderen Modellen beschäftigen, werden Sie feststellen, dass ein ganzheitlicher Ansatz für den verantwortungsvollen Einsatz von KI unerlässlich ist. Es geht nicht nur darum, Regeln aufzustellen, sondern auch darum, die tieferen Auswirkungen der KI-Handlungen zu verstehen und kontinuierlich nach ethischen Verbesserungen zu streben.
Tugendethik in der KI geht über bloße Regeln hinaus. Es geht darum, eine KI zu schaffen, die nicht nur weiß, was zu tun ist, sondern auch versteht, warum es das Richtige ist. Das bedeutet, KI mit Eigenschaften wie Fairness, Ehrlichkeit und Freundlichkeit zu entwickeln. Man kann sich das so vorstellen, dass man der KI einen guten moralischen Charakter beibringt.
Im Kundenservice zum Beispiel ist KI, die Skripten folgt, in ihren Möglichkeiten begrenzt. Stattdessen sollte sie die Bedürfnisse des Kunden verstehen und sich um sie kümmern. Das macht die KI nicht nur hilfreich, sondern auch vertrauenswürdig und angenehm in der Interaktion. Im Bildungswesen sind KI-Tutoren mit einem Schwerpunkt auf Tugendethik geduldig und ermutigend und passen sich dem individuellen Lernstil jedes Schülers an.
Zur Entwicklung einer solchen KI gehört mehr als nur die Programmierung; sie erfordert ein tiefes Verständnis der menschlichen Werte. Die Aufgabe ist komplex, denn was als »guter Charakter« gilt, kann je nach Kultur und Situation unterschiedlich sein. Daher müssen KI-Entwickler verschiedene Perspektiven berücksichtigen, um sicherzustellen, dass der Charakter der KI mit einem breiten Spektrum an ethischen Standards übereinstimmt.
Es gibt jedoch eine Herausforderung: Wie können wir sicherstellen, dass sich die KI in jeder Situation durchgängig gut verhält? Hier kommen das ständige Lernen und die Anpassung ins Spiel. KI mit Tugendethik muss in der Lage sein, aus neuen Erfahrungen zu lernen und ihr Verhalten entsprechend anzupassen.
In der KI sind Voreingenommenheit (Bias) und Fairness wichtige Themen. KI trifft oft einschneidende Entscheidungen in unserem Leben, zum Beispiel bei der Einstellung für einen Job oder bei der Bewilligung eines Kredits. Aber manchmal kann KI aufgrund von verzerrten Daten oder Programmierung unfair sein. Es ist wichtig, diese Verzerrungen zu beseitigen, um sicherzustellen, dass KI jeden gleich behandelt und faire Entscheidungen trifft. In diesem Abschnitt sehen wir uns an, wie KI voreingenommen sein kann, warum darauf geachtet werden muss und wie man KI fairer machen kann.
Das Erkennen und Reduzieren von Vorurteilen in KI-Systemen ist eine wichtige Fähigkeit, insbesondere für Nutzer von Plattformen wie ChatGPT. Voreingenommenheit in der KI tritt auf, wenn das System Vorurteile gegenüber bestimmten Gruppen an den Tag legt. Dies ist oft auf die Daten zurückzuführen, mit denen es trainiert wurde, auf die Art und Weise, wie es programmiert wurde, oder darauf, wie Sie Ihre Prompts formulieren. Wenn Sie als Nutzer wissen, wie Sie diese Vorurteile erkennen und abmildern können, ist dies der Schlüssel zu einer fairen und ausgewogenen Interaktion mit KI.
Zunächst sollten sich die Nutzer der verschiedenen Vorurteile bewusst sein, die in der KI auftreten können. Dazu gehören Vorurteile in Bezug auf Geschlecht, Rasse, Alter und mehr. Wenn bestimmte Gruppen durchweg negativ dargestellt werden oder wenn sich die Antworten der KI auf der Grundlage von Wörtern, die sich auf die Identität beziehen, drastisch ändern, könnte dies auf Voreingenommenheit hindeuten.
Ebenfalls ist es nützlich, etwas über künstliche Intelligenz zu lernen und darüber, wo sie möglicherweise verzerrt ist. Sie sollten versuchen, die Grundlagen zu verstehen, wie KI funktioniert. Dazu gehört auch, dass Sie wissen, wo KI Dinge falsch machen kann, zum Beispiel wenn sie bestimmte Gruppen von Menschen ungerecht behandelt. Dieses Wissen kann Ihnen helfen, intelligentere Fragen zu stellen und die Antworten der KI kritischer zu betrachten.
Bei der weiteren Entwicklung der KI werden die Nutzer eine wichtige Rolle spielen, um sie zu verbessern – indem sie sich potenzieller Voreingenommenheit bewusst sind, KI testen, den Entwicklern Feedback geben und lernen. Damit werden die Nutzer dazu beitragen, dass KI fair, unvoreingenommen und ausgewogen ist. Dies ist ein wichtiger Teil des verantwortungsvollen Umgangs mit KI. Es macht KI zu einem besseren Werkzeug für alle und stellt sicher, dass die Menschen sie auf eine Weise nutzen, die hilfreich und gerecht ist.
Ein KI-Datensatz ist eine Sammlung von Informationen, mit denen ein KI-System trainiert wird, Muster zu erkennen und Entscheidungen zu treffen. Dazu können Daten wie Bilder oder Texte gehören, die es der KI ermöglichen, zu lernen und ihre Fähigkeiten zu verbessern. Das Verständnis von Fairness in KI-Datensätzen ist wichtig, um sicherzustellen, dass KI-Systeme unvoreingenommene und umfassende Antworten geben. Dies ist ein Faktor, der einen großen Einfluss auf die Unvoreingenommenheit der KI haben kann. Angesichts seiner Bedeutung untersuchen wir in diesem Abschnitt das Konzept der Fairness in Datensätzen und wie es sich auf die Arbeitsweise von KI-Systemen auswirkt.
Fragen Sie sich, warum Fairness in Datensätzen so wichtig ist? Im Grunde genommen geht es darum, wie KI Wissen erwirbt und Entscheidungen trifft. Betrachten Sie KI als einen Prozess des Lernens und der Entscheidungsfindung. Wenn die Daten, aus denen sie lernt, einseitig oder aus einer engen Perspektive betrachtet werden, wird das Wissen der KI begrenzt und verzerrt. Angenommen, die KI lernt vorwiegend aus Daten einer bestimmten Region oder Sprache, dann könnte sie Probleme haben, wenn sie mit Personen aus anderen Regionen oder Sprachen zu tun hat.
Wir können Fairness in Daten erreichen, indem wir Informationen aus einer Vielzahl von Quellen, Kulturen, Sprachen und Perspektiven einbeziehen. Diese Vielfalt trägt dazu bei, dass keine KI entsteht, die eine Gruppe gegenüber einer anderen bevorzugt. Außerdem hilft sie der KI, eine Vielzahl von Nutzern und Situationen zu verstehen und auf sie zu reagieren. Die Erstellung fairer Datensätze umfasst zwei wichtige Schritte:
Es ist wichtig, sich über die Funktionsweise der KI und ihre Abhängigkeit von Datensätzen zu informieren. Es ist, als würde man die Regeln eines Spiels verstehen. Wenn Sie wissen, wie KI trainiert wird, können Sie ihre Antworten besser interpretieren und erkennen, wenn sie aufgrund von verzerrten Daten unausgewogene Antworten gibt. Dieses Wissen ermöglicht es Ihnen, fundierte Entscheidungen zu treffen und mit KI überlegter umzugehen.
Fairnessbewusste Modellierung ist die Entwicklung von KI-Systemen, die bei ihren Entscheidungen an Fairness denken und diese berücksichtigen. Es geht im Wesentlichen darum, der KI beizubringen, bei ihren Entscheidungen fair zu sein – eine fortschrittlichere Art der KI-Entwicklung, bei der die Entwickler die KI mit vielen verschiedenen Informationen trainieren und dafür sorgen, dass sie fair antwortet.
Bei der fairnessbewussten Modellierung wenden die Entwickler von KI-Systemen spezielle Techniken an, um jegliche Ungerechtigkeit bei der Auswahl durch die KI zu erkennen und zu beheben. Betrachten wir zum Beispiel ein Computerprogramm, das einem Unternehmen bei der Auswahl von Bewerbern für eine Stelle hilft. Fairnessbewusste Modellierung stellt sicher, dass das Programm nicht unfairerweise eine Person aufgrund ihres Namens oder ihres Wohnorts einer anderen vorzieht.
Ein Beispiel für fairnessbewusste Modellierung sind Unternehmen für Gesichtserkennungssoftware, wie Kairos (https://www.kairos.com
) und Facia (https://facia.ai
). Diese Unternehmen entwickeln KI für die Gesichtserkennung, zum Beispiel für die Gebäudesicherheit. Bei der fairnessbewussten Modellierung verwenden die Unternehmen Techniken, die sicherstellen, dass die KI Menschen nicht aufgrund ihres Aussehens ungerecht behandelt. Letztlich wird damit sichergestellt, dass die KI Menschen unabhängig von ihrem Aussehen gleich erkennt.
Das Überprüfen und Testen der KI-Entscheidungen ist sehr wichtig. Bei der fairnessbewussten Modellierung überprüfen die KI-Entwickler regelmäßig und kontinuierlich, ob die KI immer noch faire Entscheidungen trifft. Wenn die Entwickler Probleme feststellen, beheben sie diese. Wenn die KI beispielsweise einer Bank dabei hilft, zu entscheiden, wer einen Kredit bekommt, sorgt die Fairness-Modellierung dafür, dass sie nicht eine Gruppe von Menschen gegenüber einer anderen bevorzugt. Die Entwickler behalten das im Auge und nehmen bei Bedarf Änderungen vor, damit es fair bleibt.
Ein weiterer wichtiger Bestandteil der fairnessbewussten Modellierung ist die Zusammenarbeit eines Teams von Personen mit unterschiedlichem Hintergrund. Stellen Sie sich ein Team von Leuten vor, die ein Auto bauen, und jeder bringt ein anderes Bauteil mit. Wenn in der KI-Entwicklung Menschen mit unterschiedlichem Hintergrund zusammenarbeiten, trägt dies zur Schaffung eines ausgewogenen und fairen KI-Systems bei. Die Mitglieder des KI-Teams mit all ihren unterschiedlichen Fähigkeiten arbeiten zusammen, um die verschiedenen Aspekte eines Problems zu lösen.
Darüber hinaus ist es wichtig, sowohl den Menschen, die KI entwickeln, als auch den Menschen, die sie nutzen, etwas über Fairness beizubringen. Die Entwickler müssen verstehen, was Fairness bedeutet und wie man KI fair macht. Die Nutzer müssen verstehen, dass KI nicht perfekt ist und wie man KI verantwortungsvoll einsetzt. So müssen die Entwickler lernen, wie sie Ungerechtigkeiten in der KI beheben können, und die Nutzer müssen lernen, wie sie die KI nutzen können, ohne Probleme zu verursachen. Hierfür gibt es Schulungs- und Trainingsprogramme, aber immer noch sehr wenige.
Fairnessbewusste Modellierung ist ein Weg, KI zu entwickeln, die sich um Fairness kümmert. Dabei wird die KI darauf trainiert, alle Menschen gleich zu behandeln. Unternehmen, die KI entwickeln, können diesen Ansatz in Bereichen wie der Gesichtserkennung, bei Programmen zur Überprüfung von Lebensläufen und vielem mehr anwenden, wo KI fair zu jeder Person sein muss, der sie begegnet.
Es reicht nicht aus, KI-Systeme einfach nur intelligent zu machen. Diese Systeme müssen auch transparent sein, und es muss Rechenschaft über ihre Arbeitsweise abgelegt werden können. Sie müssen verstehen, wie KI ihre Entscheidungen trifft und dass die Betreiber von KI-Systemen für ihre Handlungen verantwortlich gemacht werden. In diesem Abschnitt gehen wir der Frage nach, warum KI transparent sein muss. Wir untersuchen auch, wer beim Einsatz von KI-Systemen rechenschaftspflichtig ist. Wenn Sie diese Aspekte verstehen, können Sie sicherstellen, dass KI vertrauenswürdig ist und in einer Weise eingesetzt wird, die für alle von Vorteil ist.
Bei der KI geht es nicht nur darum, intelligente Systeme zu schaffen. Wir müssen diese Systeme in die Lage versetzen, zu erklären, warum sie Entscheidungen treffen. An dieser Stelle kommt das Konzept der erklärbaren KI (Explainable AI, XAI) ins Spiel. Wenn Sie sich mit diesem Thema befassen, sollten Sie daran denken, dass es nicht ausreicht, dass KI intelligent ist, sondern dass sie auch nachvollziehbar und erklärbar sein muss.
Hier einige Gründe, warum XAI so wichtig ist:
Als Nutzer von KI ist es für Sie entscheidend, XAI zu verstehen. Es versetzt Sie in die Lage, die richtigen Fragen zu den KI-Systemen zu stellen, mit denen Sie interagieren. Ganz gleich, ob es sich um einen virtuellen Assistenten auf Ihrem Telefon oder um ein Programm handelt, das Ihnen Schulungskurse empfiehlt – das Wissen, dass diese Systeme ihre Argumente erklären können, gibt Ihnen zusätzliches Vertrauen und Sicherheit.
Wenn wir über KI sprechen, ist es wichtig, die rechtlichen Aspekte zu berücksichtigen und zu wissen, wer für die Entscheidungen der KI verantwortlich ist. In diesem Abschnitt befassen wir uns mit Gesetzen, die für KI gelten und die sicherstellen, dass die Menschen für die Nutzung von KI verantwortlich sind.
Im Folgenden sind einige Bereiche aufgeführt, die bei der Behandlung von KI-Rechtsfragen zu berücksichtigen sind:
Wenn Sie KI-Systeme wie ChatGPT, Claude oder andere einsetzen, ist es wichtig zu überprüfen, wie gut sie funktionieren und ob sie gute Entscheidungen treffen. Dieser Prozess wird als Audit eines KI-Systems bezeichnet. Das Auditing stellt sicher, dass die KI so funktioniert, wie sie sollte und keine Fehler oder unfairen Entscheidungen trifft.
Ein wichtiger Aspekt beim Audit ist das Testen der KI anhand verschiedener Szenarien. Dabei werden der KI verschiedene Arten von Aufgaben gestellt, die sie lösen oder Fragen beantworten soll. Die Auditoren überprüfen dann die Antworten der KI, um sicherzustellen, dass sie korrekt und angemessen sind. Wenn die KI falsche Antworten gibt oder Voreingenommenheit zeigt, werden die Prüfer diese Probleme erkennen.
Ein weiterer wichtiger Bestandteil der Prüfung von KI-Systemen ist die Sicherstellung, dass sie die Privatsphäre der Nutzer respektieren. Das heißt, es muss sichergestellt werden, dass die KI Ihre Daten sicher aufbewahrt und sie nicht ohne Erlaubnis weitergibt. Die Prüfer überprüfen die Sicherheitsfunktionen des Systems, um zu gewährleisten, dass Ihre Daten geschützt sind.
Die Prüfer untersuchen auch, wie sich die KI auf verschiedene Personengruppen auswirkt. Sie wollen sicherstellen, dass die KI alle fair behandelt, ohne eine Gruppe gegenüber einer anderen zu bevorzugen. Dieser Teil der Prüfung hilft, sicherzustellen, dass die KI ethisch und gerecht ist.
Wenn Sie als Nutzer wissen, dass das von Ihnen eingesetzte KI-Systeme einer Prüfung unterzogen wurde, können Sie sich besser darauf verlassen. Es bedeutet, dass Experten daran arbeiten, dass die KI zuverlässig, fair und sicher ist.