Algorithmische Entscheidungen können höchst unterschiedliche Auswirkungen haben. So können sie im Finanzwesen über Kreditvergaben entscheiden, in der Medizin bei der Diagnose von Krankheiten unterstützen oder in der Rechtsprechung bei der Bestimmung von Haftstrafen eine Rolle spielen. Im Marketing ist die Frage der Zielgruppen-Selektion für die Wirksamkeit gewisser Botschaften entscheidend. In all diesen Beispielen kann Künstliche Intelligenz das Leben von Menschen erheblich beeinflussen – aber auch ethische Probleme verursachen. Daher muss sichergestellt sein, dass KI-Systeme fair und ethisch eingesetzt werden. Vieles davon ist Entwickler-Arbeit. Aber einiges ist auch die Aufgabe der Unternehmen, die KI einsetzen.
Was KI mit Ethik zu tun hat
Auf den ersten Blick: nichts. Künstliche Intelligenz wertet nicht nach gut und böse oder richtig und falsch. Sie weiß nicht, was moralisch vertretbar ist. Denn Algorithmen sind nur so „klug“, wie sie programmiert werden. Ein KI-System, das dazu verwendet wird, Leben zu retten, indem es medizinische Diagnosen verbessert, gilt wohl als moralisch korrekt; ein KI-System, das zur Manipulation von Meinungen oder zur Schädigung von Menschen eingesetzt wird, als unethisch und moralisch bedenklich. Damit die KI eine ethische Komponente integrieren kann, braucht es eine Kombination aus technischen, regulatorischen und gesellschaftlichen Maßnahmen. Ethik sollte daher bereits in der Entwicklungsphase von KI-Systemen eine zentrale Rolle spielen. Das ist Sache der Entwickler:innen. KI sollte grundlegende Aspekte des sozialen Zusammenlebens beachten. Das ist die Aufgabe der Gesellschaft, welche die wesentlichen Parameter vorgibt. Und dann gibt es die Ebene der Unternehmen. Sie sollten die Verantwortung für die Auswirkungen ihrer KI-Systeme übernehmen – von Identifizierung und Behebung von Fehlern bis zur Reaktion auf unerwünschte Folgen.
Warum Ihr Unternehmen einen Code of Conduct für KI braucht
Es ist letzten Endes die Verantwortung des Unternehmens, wenn KI Fehler begeht. Daher benötigt jedes Unternehmen einen Code of Conduct für KI. Allen Mitarbeiter:innen müssen die Unternehmensregeln für den Umgang mit KI bekannt sein. So dürfen u.a. keine Firmendaten in Open-Source-Programme gehoben werden, weil sie dann ins Internet gelangen. KI soll auch nie ohne menschliche Kontrolle angewendet werden. Nur so ist sichergestellt, dass die Ergebnisse auch ethisch vertretbar sind. Dieser Aspekt, dass der Mensch der zentrale Faktor bei KI bleibt, muss den Mitarbeiter:innen immer bewusst sein.
Moralische Korrektheit der KI beginnt bei den Daten
KI-Systeme lernen aus Daten. Wenn die Daten, mit denen ein KI-System trainiert wird, verzerrt oder diskriminierend sind, kann dies zu unethischen Entscheidungen führen. Diejenigen, die das KI-System entwickeln und programmieren, müssen ethische Prinzipien und Standards berücksichtigen und sicherstellen, dass das System so gestaltet ist, dass es ethische Grundsätze respektiert. Dazu müssen auch die Daten, die in KI-Systemen verwendet werden, repräsentativ, fair und ethisch einwandfrei sein. Der Einsatz von KI erfordert volle Transparenz und Klarheit, welche Daten verwendet werden, wie sie gesammelt wurden und welchem Zweck sie dienen. Personen sollten informiert und in die Entscheidungsfindung über die Nutzung ihrer Daten einbezogen werden. KI-Systeme sind in der Regel „Black Boxes“. Die Möglichkeit zur Überprüfung und Erklärung von Entscheidungen ist entscheidend, um das Vertrauen der Nutzer:innen in die Technologie zu stärken. Der Missbrauch persönlicher Daten durch KI ist moralisch inakzeptabel. Umso wichtiger ist es daher, dass KI-Entwickler:innen Transparenz in ihre Algorithmen einbauen und sich Unternehmen dazu verpflichten, Rechenschaft über deren Auswirkungen abzulegen.
Wie man KI moralisches Verhalten beibringen kann
KI-Technologien können für schädliche oder unethische Zwecke missbraucht werden, zum Beispiel für die Verbreitung von Desinformation, Überwachung oder für Cyberangriffe. Unternehmen und Organisationen, die KI entwickeln oder einsetzen, könnten solche Probleme verhindern, indem sie der KI moralisches Verhalten beibringen. Unabhängige Ethikprüfungen, etwa über eigene Ethikgremien, stellen sicher, dass KI-Projekte diese Standards erfüllen. Wobei die Vorstellung von moralischer Korrektheit je nach Person unterschiedlich ist. Daher sollten KI-Systeme so gestaltet sein, dass sie die Grundwerte und Normen der Gesellschaft respektieren, in der sie eingesetzt werden. Dazu tragen regulatorische Vorgaben ebenso bei wie ein Code of Conduct im Unternehmen für den Einsatz von KI bei. Mitarbeiter:innen müssen außerdem in der Lage sein, zu verstehen, wie und warum ein KI-System bestimmte Entscheidungen trifft.
Ethische KI-Prinzipien in Kooperationen leben
Unternehmen können auch zur Stärkung der moralischen Autorität der KI beitragen, indem sie mit Partnern kooperieren, die bereits entsprechende Codizes anwenden. So hat die APA beispielsweise mit der Implementierung ihrer KI-Strategie klare Leitlinien vorgegeben. Die Berücksichtigung der ethischen Grundsätze unter Achtung der menschlichen Autonomie, Schadensverhütung sowie Fairness und Erklärbarkeit ist der Kern. Die APA strebt die Einhaltung definierter Anforderungen an vertrauenswürdige KI an. Sie setzt dabei auf mehrere Faktoren, etwa den Vorrang menschlicher Aufsicht, technische Robustheit und Sicherheit, Schutz der Privatsphäre sowie Datenqualitätsmanagement. Weitere Kriterien sind Transparenz, Vielfalt, Nichtdiskriminierung und Fairness, aber auch gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht. Ein Gesamtpaket, das moralische Sicherheit gibt.
Fazit
Die ethische Dimension von KI ist ein Thema, das in Zukunft noch mehr an Bedeutung gewinnen wird. Daher ist eine laufende Diskussion über ethische Fragen, die mit KI verbunden sind, sowie die Entwicklung klarer Richtlinien und Governance-Strukturen wichtig. Nur so können wir sicherstellen, dass die ethischen Grundsätze in der Praxis umgesetzt werden.