Die Ethik der Algorithmen

90 Prozent der Führungskräfte haben schon mal eine KI-Nutzung beobachtet, die ethische Fragen aufgeworfen hat. Das ergab die Studie „Why adressing ethical Questions in AI will benefit Organizations” des Capgemini Research Institute. Immer mehr Aufgaben, Entscheidungen und Verantwortung werden an Computerprogramme und autonome Systeme delegiert – und das betrifft nicht nur die Arbeitswelt. Künstliche Intelligenzen erlernen auch Tätigkeiten, die dem Zwischenmenschlichen und dem Privaten zugeordnet werden. Laut der Studie spielen dabei für den Verbraucher ethische Grundsätze eine zunehmende Rolle. Ob bei Versicherungen, in der Medizin, im Service oder in der Entwicklung von selbstfahrenden Autos: Die zunehmende Mensch-Maschinen-Interaktion bringt moralische Anforderungen an die Technologie mit sich.

Moralische Defizite von Künstlicher Intelligenz

Die Gründe für ethische Defizite im Einsatz von KI sind hauptsächlich der Druck, Systeme schnell einzuführen, Ressourcenmangel und die fehlende Berücksichtigung ethnischer Standards. Dabei sind die kritisierten Mängel in der Moral der Algorithmen sehr unterschiedlich. Dazu zählt zum Beispiel ein falscher Ton in der Kommunikation mit Kunden, zu großes Vertrauen in maschinell getroffene Entscheidungen oder die Diskriminierung beziehungsweise Bevorzugung von Personen. Beispielsweise müssen autonom fahrende Autos darüber entscheiden, ob sie die eigenen Passagiere oder andere Personen des Straßenverkehrs vorrangig schützen. Hier kann es zudem zu einer Entscheidung zwischen verschiedenen Personen des Straßenverkehrs kommen. Eine Herausforderung stellt auch der Umgang mit Daten dar. Künstliche Intelligenzen sind auf erhebliche Datenmengen, insbesondere über Personen, angewiesen. Die Erhebung dieser Daten sollte dennoch nur bei vorhandener Zustimmung der Betroffenen erfolgen.

OECD Grundsätze zum Umgang mit KI

Somit besteht ein großer Handlungsbedarf, die moralischen Standards von Maschinen zu überdenken und zu gestalten. Dabei legen fünf Grundsätze der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) eine Grundlage. In diesem Jahr haben die 36 Mitgliedsstaaten der OECD und sechs weitere Länder sich auf fünf Grundsätze zum Umgang mit KI geeinigt. Sie umfassen wertbasierte Prinzipien für den verantwortungsvollen Einsatz vertrauenswürdiger Formen von Künstlicher Intelligenz.

  1. Künstliche Intelligenz soll den Menschen und dem Planeten zugutekommen, indem sie integratives Wachstum, nachhaltige Entwicklung und Wohlstand fördert.
  2. KI-Systeme sollen so gestaltet werden, dass sie rechtsstaatlichen Prinzipien folgen, demokratische Werte und Vielfalt respektieren und Schutzvorkehrungen beinhalten, die beispielsweise ein Eingreifen des Menschen ermöglichen, sodass eine faire und gerechte Gesellschaft gewährleistet wird.
  3. KI muss transparent gemacht und stets als solche erkennbar sein, damit die Menschen wissen, womit sie es zu tun haben und Ergebnisse gegebenenfalls hinterfragen.
  4. KI-Systeme müssen stets stabil und sicher arbeiten und potentielle Risiken kontinuierlich untersucht und behandelt werden.
  5. Organisationen und Einzelpersonen, die KI-Systeme entwickeln, einsetzen oder verwalten sollten die rechtliche Verantwortung dafür tragen, dass die Systeme den oben genannten Grundsätzen entsprechend arbeiten.

Quelle: www.oecd.org