Digitale Ethik: Was ist das?

Digitale Ethik, auch „Digital Ethics“ oder mit Fokus auf KI „AI Ethics“ genannt, ist das Buzzword der Stunde. Doch was verbirgt sich eigentlich hinter diesem Begriff? Warum ist er gerade jetzt so populär? Das zeigen wir hier und erklären auch, welche besondere Rolle Digitale Ethik beim Thema Künstliche Intelligenz spielt.

Digitale Ethik ist für Unternehmen heute ein relevantes Thema: Beim Einsatz von Künstlicher Intelligenz ist es allein schon aus der Compliance-Perspektive notwendig, dass Prozesse und Entscheidungen nachvollziehbar sind. Beispiele dafür sind die mögliche Diskriminierung von Bewerber:innen, die durch KI-gestützte Auswahlverfahren unbeabsichtigt benachteiligt werden, oder auch die automatisierte Betrugserkennung, bei der u. U. bestimmte Personengruppen diskriminiert oder geschützte Merkmale herangezogen werden. Unternehmen riskieren in beiden Fällen empfindliche Sanktionen. Aber auch bei aus regulatorischer Sicht unkritischen Prozessen wollen Unternehmen Sicherheit darüber haben, was durch KI entschieden und in die Wege geleitet wird. Wie sollen sonst Schwachstellen entdeckt und optimiert werden? Kurzum: Wir brauchen eine vertrauenswürdige KI. Bei Digitalisierungs­projekten helfen die Consultants von Comma Soft ihren Kunden dabei, eine solche sichere Lösung zu finden und setzen dabei die Grundsätze der Digitalen Ethik um. Was darunter konkret zu verstehen ist, wollen wir hier erläutern.

Digitale Ethik – eine Definition

Digitale Ethik ist ein Teilgebiet der philosophischen Disziplin „Informationsethik“. Während Informationsethik allgemein den Umgang mit Informationen und informations­verarbeitenden Technologien kritisch reflektiert, fokussiert sich Digitale Ethik speziell auf die moralischen Grenzen der Digitalisierung. Themen sind vor allem das Verhältnis zwischen Mensch und Maschine sowie die Maßstäbe einer digital geprägten Gesellschaft. In Bezug auf Künstliche Intelligenz (KI) stellt die Digitale Ethik z. B. die Frage, wie weit Entscheidungen von KI nachvollziehbar sind und inwieweit Menschen diesen Entscheidungen vertrauen können und sollen.

Entstehungsgeschichte

Der Begriff „Digitale Ethik“ wurde zuerst 2009 von dem Philosophen und Professor für Informationswissenschaft Rafael Capurro verwendet, der u. a. das International Center for Information Ethics (ICIE) gründete und als Mitglied des EU-Kommissions-Gremiums European Group on Ethics in Science and New Technologies (EGE) wirkte. Seitdem wurde unter der Überschrift „Digitale Ethik“ in zahlreichen wirtschaftlichen und politischen Zusammenhängen darüber diskutiert, wie sich die digitale Transformation z. B. auf die Arbeitswelt, den Datenschutz und die Autonomie von Menschen auswirkt. Die Themen Künstliche Intelligenz und Robotik spielen hierbei eine zunehmend wichtige Rolle. Im deutschsprachigen Raum wird die Thematik bereits seit 2005 durch die Petersberger Gespräche vorangetrieben, die ein interdisziplinäres Diskussionsforum zu digitalen Themen wie u. a. Künstliche Intelligenz bieten.

Die politische Relevanz von Digitaler Ethik

Digitale Ethik ist im Rahmen einer gesellschaftlich und moralisch vertretbaren Digitalisierung ein wichtiges Konzept und wird in letzter Zeit auf höchster politischer Ebene diskutiert, vor allem, wenn es um das Thema Künstliche Intelligenz geht. Die EU und die OECD haben mit ihren Leitlinien für eine vertrauenswürdige KI (Trustworthy AI) in Bezug auf Künstliche Intelligenz bereits 2019 den Anfang gemacht. Daher ist es nicht verwunderlich, dass auch Industrie und Wirtschaft die Digitale Ethik aufgreifen und ihr Handeln danach ausrichten: So einigte sich z. B. der EU-US Trade and Technology Council (TTC) am 29. September 2021 darauf, was eine vertrauenswürdige KI ausmacht und folgte dabei den Empfehlungen der OECD.

Trustworthy AI

Im Zusammenhang mit Künstlicher Intelligenz setzt sich Digitale Ethik mit speziellen Fragestellungen auseinander, darunter z. B.: Kann man einer KI vertrauen? Wie genau entscheidet sie? Worauf basiert die Entscheidung? Laut den EU-Leitlinien zeichnet sich eine vertrauenswürdige KI durch drei Komponenten aus. Sie sollte:

  • Geltendes Recht und alle gesetzlichen Bestimmungen einhalten
  • Die Einhaltung ethischer Grundsätze und Werte garantieren
  • Sowohl in technischer als auch in sozialer Hinsicht robust sein, da KI-Systeme möglicherweise unbeabsichtigten Schaden verursachen, selbst wenn ihnen gute Absichten zugrunde liegen

Jede dieser drei Komponenten ist notwendig, jedoch allein nicht ausreichend, um das Ziel einer vertrauenswürdigen KI zu erreichen. Idealerweise wirken alle drei Komponenten harmonisch zusammen und überlappen sich in ihrer Funktionsweise. Ein ganzheitlicher Ansatz bezüglich KI-Strategie und -Umsetzung ermöglicht dies. Hilfreich sind zudem die von der EU formulierten Kernanforderungen.

Sieben Kernanforderungen an eine vertrauenswürdige KI

Die EU hat in ihren Leitlinien für eine vertrauenswürdige KI sieben Kernanforderungen aufgestellt, die beim Einsatz von KI berücksichtigt werden sollten. Zusammengefasst beinhalten sie folgendes:

1. Vorrang menschlichen Handels und menschliche Aufsicht

KI-Systeme sollen die menschliche Entscheidungsfindung unterstützen und den Menschen dienen – nicht umgekehrt. Möglich wird das, wenn Menschen weiterhin autonom handeln können und selbst entscheiden, wann, wie und ob die KI zum Einsatz kommt. KI-Systeme sollen außerdem förderlich für Demokratie und Grundrechte sein und somit eine gerechte Gesellschaft unterstützen.

2. Technische Robustheit und Sicherheit

Damit sich KI-Systeme zuverlässig und gemäß ihrer Bestimmung verhalten, müssen sie robust, präzise und reproduzierbar sein. Dies ist auch die Voraussetzung dafür, dass sie widerstandsfähig gegen äußere Einflüsse wie Cyber-Security-Angriffe sind und dass die zugrundeliegenden Daten, das Modell sowie die Infrastruktur in Hard- und Software geschützt werden. Oberster Grundsatz ist die Verhütung von Schaden für Lebewesen und Umwelt.

3. Schutz der Privatsphäre und Datenqualitätsmanagement

Der Schutz von Daten und Privatsphäre ist bei KI-Systemen eines der obersten Gebote. Bei einer KI, die das erfüllt, sind neben dem Zugriff auf alle Daten auch das Sicherstellen von Qualität und Integrität der zu verarbeitenden Daten genau geregelt und protokolliert. Zudem hat nur entsprechend qualifiziertes Personal Zugriff auf die KI-Systeme und deren Daten.

4. Transparenz

Die Transparenz des KI-Systems ist zum einen eng mit seiner Erklärbarkeit verknüpft: Daten und Prozesse, die zu einer Entscheidung beitragen, sollen so gut wie möglich dokumentiert und rückverfolgbar sein, damit jede Entscheidung des Systems nachvollziehbar ist. Zusätzlich müssen Nutzer:innen erkennen können, dass es sich z. B. bei einem Chat-Bot um eine KI handelt und die Wahl zwischen KI und einer menschlichen Interaktion haben.

5. Vielfalt, Nichtdiskriminierung und Fairness

Da KI-Systeme dem Menschen und der Gesellschaft als Ganzes dienen sollen, dürfen sie niemanden ausschließen. Insbesondere soll der Zugang barrierefrei sein und unfaire Verzerrungen verhindern, die z. B. durch Alter, Geschlecht oder Fähigkeiten bedingt sein könnten. Entsprechende Lenkungs- und Kontrollprozesse sowie die Konsultation und Beteiligung diverser Interessenträger ist bei der Umsetzung von KI-Projekten daher ratsam.

6. Gesellschaftliches und ökologisches Wohlergehen

Der Lebenszyklus eines vertrauenswürdigen KI-Systems berücksichtigt die breitere Gesellschaft und Umwelt. Nachhaltigkeit und ökologische Verantwortung sollen so gefördert und die sozialen Auswirkungen des KI-Systems auf Gesellschaft und Demokratie reflektiert werden.

7. Rechenschaftspflicht

Die Rechenschaftspflicht beinhaltet eine klare Verantwortlichkeit für die einzelnen Prozesse und Teile des KI-Systems. Dies bedeutet u. a., dass eine Nachprüfbarkeit, bspw. durch interne oder externe Prüfer, von Algorithmen, Daten und Entscheidungsverfahren ermöglicht ist. Bei KI-Systemen mit starkem Risiko sind eine Folgenabschätzung sowie Vorkehrungen für einen angemessenen Rechtsschutz ratsam.

Explainable AI

Damit KI keine Blackbox bleibt, sind Tools zur Visualisierung und Besprechbarmachung der KI-Ergebnisse nötig. Diese Thematik fällt unter das Schlagwort „Explainable AI“. Zum einen muss das KI-Modell klar erfasst und beschrieben werden. Zum anderen müssen die einzelnen Ergebnisse eindeutig auf die Struktur des Modells abbildbar sein. Häufige Fragen sind hier:

  • Welche Parameter des Modells sind für die Entscheidung ausschlaggebend?
  • Wie hoch ist die Wahrscheinlichkeit der Entscheidung?
  • Besonders bei Bildern: Welche Teile des Inputs sind für die Entscheidung relevant?

Mithilfe geeigneter technischer Tools kann also die Entscheidung der KI besser verstanden und entsprechend reagiert werden. Um die KI erklärbar zu machen, bedarf es aber nicht nur technischer Hilfsmittel, sondern auch personeller Entwicklung. Denn erst, wenn Mitarbeiter:innen entsprechend im Umgang mit dem KI-System geschult sind, können sie nicht-ideale Entscheidungen des KI-Systems erkennen und hinterfragen.

Digitale Ethik in der Praxis umsetzen

All diese Anforderungen und Leitlinien sind komplex. Zudem verändern sie sich im Verlauf des fortschreitenden gesellschaftlichen Diskurses immer wieder. Unternehmen, die den Anspruch haben, Digitale Ethik umzusetzen, können dies aus Ressourcengründen daher oft nicht allein stemmen. Hier empfiehlt sich eine Beratung durch KI- und Digitalisierungs­expert:innen, die bei der strategischen Ausrichtung und technologischen Umsetzung gezielt unterstützen. Sollten Sie Fragen zu diesem Thema haben, kontaktieren Sie uns gerne.