Können wir Robotern Ethik beibringen?

Intelligente Maschinen sind Teil unseres Alltags geworden. Sie fahren unsere Autos, liefern personalisierte Produktempfehlungen und warnen uns vor Betrügern. Das Potenzial, mithilfe von Maschinen unsere Lebensqualität zu verbessern (oder unsere Zivilisation in den Abgrund zu stürzen, wenn man den Dystopien vieler Sci-Fi-Filme glauben darf) ist riesig. Doch so intelligent Maschinen geworden sind – können sie auch moralisch handeln?


Künstliche Intelligenz könnte uns eines Tages vollständig ersetzen. Zumindest, wenn wir den Worten von Stephen Hawking Glauben schenken. In einem Interview mit der Zeitschrift Wired erklärte Hawking: „Wenn Menschen Computerviren entwickeln, wird jemand eine künstliche Intelligenz entwickeln, die sich selbst verbessert und vermehrt. Das wird eine neue Lebensform sein, die die Fähigkeiten des Menschen übertrifft.” Es ist ein Schreckensszenario, das auch von anderen geteilt wird, etwa von Elon Musk, der erklärte, dass er die KI für „das größte Risiko für unsere Gesellschaft überhaupt” halte.

Doch ob man diese Befürchtungen teilt oder nicht: Je fortschrittlicher und alltäglicher die Maschinen werden, umso stärker werden ernsthafte Fragen über die Rolle von Robotern in unserer Gesellschaft diskutiert werden müssen. Das gilt ganz besonders, wenn diese Roboter eines Tages ethische Entscheidungen treffen sollen.

Überlegen Sie sich zum Beispiel einmal die folgenden Szenarien:

Szenario 1

Sie fahren in Ihrem Auto durch ein Wohngebiet. Wir schreiben das Jahr 2040 und das Fahrzeug steuert sich selbst. Zwei Kinder spielen auf einer nahegelegenen Wiese. Plötzlich laufen sie auf die Straße. Ihr Auto könnte den Kindern ausweichen. Doch dadurch würde es mit einem anderen Auto zusammenstoßen, in dem eine vierköpfige Familie fährt. Wen sollte das Auto retten?

Szenario 2

Oder stellen Sie sich Folgendes vor: Sie entwickeln automatisierte Systeme für das Militär. Es steht fest, dass ein Angriff auch Zivilisten gefährden würde. Aber wie lässt sich die Höhe des Risikos ermitteln? Und bis zu welcher Grenze ist das Risiko vertretbar – ist es vertretbar, schwangere Frauen und Kinder zu gefährden?

Szenario 3

Diese unangenehmen Fragen ähneln dem berühmten Trolley-Problem, einem Gedankenexperiment, das die Philosophin Philippa Foot im Jahr 1967 formulierte. Eine Straßenbahn läuft auf ihrem Gleis. Plötzlich gerät sie außer Kontrolle. Sie kann entweder auf ihrem Gleis weiterlaufen und wird dabei fünf Personen überrollen, die auf den Gleisen stehen, oder der Fahrer kann sie auf ein anderes Gleis umlenken, dadurch aber eine einzelne, andere Person überrollen.

Es gibt für diese Fragen keine eindeutige Antwort. Sie sollen uns vielmehr dazu anregen, durch Argumente und Schlussfolgerungen zu klären, welche Entscheidung wir am ehesten vertretbar fänden. Und auch wenn diese Extremszenarien eher unrealistisch sind, helfen sie uns doch bei unseren Überlegungen zum moralischen Handeln von KI. Am MIT wurde sogar ein Online-Experiment mit einem ausführlicheren, vergleichbaren Szenario entwickelt, dessen Ergebnisse als „moralisches Crowdsourcing“ genutzt werden.

21 % der Befragten würden ein selbstfahrendes Auto mit regulierten Moralvorstellungen kaufen

vs.

59 % der Befragten würden ein Auto kaufen, das darauf programmiert ist, immer das Leben des Fahrers zu retten

(Quelle: Wissenschaftsressort der Washington Post)

KI nach menschlichem Vorbild – nicht immer eine gute Idee

„Die menschliche Natur ist nicht schwarz und weiß, sondern schwarz und grau.”

—Graham Green

Perhaps we don’t need to worry so much about the morality of AI. After all, we’ll be creating them so we can shape their nature. If we train them to think like humans and develop our values, they’ll instinctively blend into our society. However, this approach is problematic in itself.

Firstly, a robot’s nature will always be different to ours. Even if we were to reach the sci-fi favourite of AI sentience, a robot’s lack of eating, aging and breeding means it would never truly think and behave like a human. Secondly, humans are innately flawed beings. And this can be reflected in the machines we create.

LEARNING DECEPTION – READ THE STUDY

Auf ähnliche Weise sind Roboter mit menschenähnlichen Eigenschaften in der Lage, menschliche Gefühle zu manipulieren. Wissenschaftler haben herausgefunden, dass die meisten Menschen eher bereit sind, Robotern mit freundlich wirkenden Zügen ihre Fehler zu verzeihen. Sie gehen teilweise sogar soweit, die Roboter anzulügen, um sie nicht zu verletzen. Robotern ohne Gesichtszüge wird diese Art der Behandlung nicht zuteil. Dies zeigt nicht nur, wie wichtig es ist, sich bei der Entwicklung von Robotern sehr genau zu überlegen, welche menschlichen Eigenschaften diese übernehmen sollten, es verdeutlicht auch, welche ethischen und emotionalen Probleme auftreten können, wenn wir Roboter nach menschlichem Vorbild entwickeln.

Ein weiterer wichtiger Punkt ist die Auswirkung von Vorurteilen auf das Lernverhalten der Maschine. Maschinen mit KI werden von Daten gespeist und durch diese Daten können mitunter negative Stereotypen und diskriminierende Rollen verstärkt werden. So haben Wissenschaftler herausgefunden, dass KIs ohne Aufsicht unter Umständen beginnen, weibliche Namen mit Berufen wie „Sekretärin“ oder „Bibliothekarin“ und männliche Namen mit Berufen wie „Arzt“ oder „Wissenschaftler“ zu assoziieren. Solange derartige Stereotype in unserer Gesellschaft bestehen bleiben, wird es auch für die Maschine schwer, unvoreingenommen zu bleiben.

LEARNING TO CONVERSE LIKE HUMANS – READ THE STUDY

Maschinengestützte Entscheidungsprozesse heute

Schon jetzt verändern KIs und Maschinenlernen in manchen Branchen die Art und Weise, in der wichtige Entscheidungen gefällt werden. Dabei werden die meisten Tools jedoch eingesetzt, um die menschliche Entscheidungsfindung zu unterstützen, und nicht, um diese ganz zu ersetzen (zumindest auf absehbare Zeit).

Polizeiarbeit

Die Polizei in Durham, UK,  hat ein Prognose-KI-System implementiert, das bestimmt, ob ein Verdächtiger in Untersuchungshaft behalten werden sollte. Das „Harm Assessment Risk Tool“ (Hart) kalkuliert anhand von Polizeidaten aus dem Zeitraum von 2008 bis 2012, ob eine Person mit niedriger, mittlerer oder hoher Wahrscheinlichkeit wieder eine Straftat begehen wird.

Das System wurde erstmals im Jahr 2013 getestet und die Entscheidungen der KI wurden über einen Zeitraum von zwei Jahren hinweg beobachtet. Die Vorhersagen zu Verdächtigen mit geringem Risiko waren in 98 % der Fälle korrekt, die zu Verdächtigen mit hohem Risiko in 88 % der Fälle.

Finanzen

Viele Finanzunternehmen setzen für die Kreditwürdigkeitsprüfung Tools mit KI-Fähigkeiten ein, um die Entscheidungsfindung zu beschleunigen und Risiken zu minimieren.

Diese Tools können Informationen zur Transaktions- und Zahlungshistorie des Kreditnehmers ebenso verarbeiten wie unstrukturierte oder teilstrukturierte Datenquellen (z. B aus sozialen Medien und Mobilfunknutzung). Durch diese zusätzlichen Daten können potenzielle Kreditgeber das Ausgabeverhalten und die Wahrscheinlichkeit einer Rückzahlung besser einschätzen und erhalten dadurch einen wesentlich umfassenderen Überblick über die Kreditwürdigkeit einer Person.

Versicherung

Versicherer verwalten extrem große Datenmengen. Mithilfe von KI können diese Daten wesentlich effektiver ausgewertet werden. Dadurch erhalten die Versicherer ein klareres Bild von ihren Kunden und die Kunden erhalten Prämien, die besser auf ihre Bedürfnisse zugeschnitten sind.

Die KI unterstützt außerdem bei Entscheidungen über Versicherungsansprüche. Ein Beispiel dafür ist etwa Tractable, ein KI-Tool zur fotobasierten Schadensanalyse. Dabei können Fotos des Schadens zusammen mit einer Schätzung der Kosten in das System eingegeben werden. Das Tool vergleicht das Bild dann mit ähnlichen Fällen und kann eine genaue Kalkulation der Kosten abgeben.

Ethisches Verhalten für Roboter definieren

„Vor dem Gesetz ist jemand schuldig, wenn er die Rechte anderer Menschen verletzt. Ethisch betrachtet macht er sich bereits durch den Gedanken daran schuldig.“

—Immanuel Kant

Der Autor Wendell Wallach, Verfasser des Buches Moral Machines: Teaching Robots Right from Wrong beschreibt drei verschiedene Arten von Moral für Roboter:

  • Operational morality
  • Functional morality
  • Full moral agency

Doch auch wenn wir in der Lage sind, Roboter mit moralischer Handlungsfähigkeit zu erschaffen: Ist das auch eine gute Idee? Die Frage, ob Roboter ethische Entscheidungen treffen sollten, ist schwierig. Schließlich lässt sich schon darüber streiten, ob wir Menschen für ethische Entscheidung überhaupt angemessen „programmiert“ sind.

Vielleicht helfen uns die Philosophen der Antike weiter. Plato betrachtete die Moral als etwas, das jenseits der menschlichen Natur lag. Für ihn war sie objektiv und universal. Eine Handlung kann nur dann moralisch sein, wenn sie von einem objektiven Blickwinkel aus gerechtfertigt werden kann. Auf den Bereich der KI angewandt würde Plato wohl für Maschinen plädieren, die immer das tun, was objektiv moralisch richtig ist. Roboter würden und sollten die schwierigen Entscheidungen übernehmen, zu deren „Berechnung“ wir unvollkommenen Menschen nicht in der Lage sind.

Für Aristoteles auf der anderen Seite entstand die Moral aus der persönlichen Tugend eines Individuums. So hatten Menschen ebenso ihre eigene Moral wie Tiere. Moral drückt sich dabei in der Fähigkeit aus, die eigenen Entscheidungen gegenüber einem anderen rationalen Individuum zu erklären. Daher müssten Roboter nach dieser Denkweise ihre eigene Moral entwickeln. Ihre Entscheidungen würden dabei durch ihre eigenen Werte gesteuert.

Beide Ansätze haben Vor- und Nachteile, doch keiner ist eindeutig besser als der andere. Allerdings können wir, wenn wir uns ansehen, wie stark Menschen von Emotionen geleitet sind (siehe z. B. die typische Aggression im Straßenverkehr) und zu schlechten Entscheidungen neigen (z. B. Fahren unter Alkoholeinfluss), bei Robotern immerhin davon ausgehen, dass sie konsistent handeln.

Sind Regulierungen die Antwort?

“Are fundamental assumptions underlying regulatory frameworks, such as a very generic distinction between ‘things’ and ‘humans’, sustainable in the longer term, if (bio)robotic applications are increasingly built into human bodies?”

Leenes R, Palmerini E, Bert-Jaap K, Bertolini A (2007)

The World Economic Forum’s Global Risk Report 2017 stated that AI, biotech and robots have some of the highest possible benefits to society. Together, these technologies can drive economic growth and solve society’s most complex challenges, such as climate change and population growth. However, these technologies also require the most legislation.

Today, the most famous rules governing robots and ethics were devised by science fiction author Isaac Asimov. His Three Laws of Robots state:

  • First Law: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  • Second Law: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  • Third Law: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regeln dienen auch heute noch als Leitlinie für die Entwicklung von Robotern. Wenn man jedoch bedenkt, dass Asimov sie bereits im Jahr 1942 ersann, wird schnell klar, dass sie den Fähigkeiten und der Komplexität moderner KI vielleicht nicht mehr gerecht werden. Außerdem ignorieren diese Regeln eine Reihe zentraler Fragen: Wie wird etwa die Verletzung eines menschlichen Wesens definiert? Dürfte ein Roboter-Chirurg ein von Wundbrand befallenes Bein amputieren, um den Patienten zu retten?

Im Jahr 2016 erkannte das Europäische Parlament in einem Berichtsentwurf an, dass die KI im Laufe der nächsten Jahrzehnte die Fähigkeiten der menschlichen Intelligenz übertreffen könnte. Ohne entsprechende Vorkehrungen könne dies „die Fähigkeit der Menschheit, ihre eigene Schöpfung zu kontrollieren und folglich vielleicht auch die Fähigkeit, Herr über ihr eigenes Schicksal zu bleiben und für das Überleben der Spezies Mensch Sorge tragen zu können, ernsthaft gefährden“.

Der Bericht schlussfolgerte, dass die Forschung im Bereich Robotik im Interesse der Menschen und deren Wohlergehen erfolgen sollte. Zudem wurde die Einrichtung einer europaweiten Behörde für die Regulierung und die technische Beratung bei der Entwicklung von Robotern gefordert. Und auch wenn der Aspekt der KI-Ethik nur am Rande erwähnt wurde, wurde doch darauf hingewiesen, dass die Haftung im Verhältnis zur Autonomie und dem tatsächlichen Maß an externer Steuerung für den Roboter stehen sollte. Das bedeutet, dass die Maschinen und ihre Erschaffer beide für die Entscheidungen des Roboters verantwortlich gemacht werden sollten.

Die Zukunft

72 % der Europäer denken, dass Roboter gut für die Gesellschaft sind, da sie Menschen helfen.

(Quelle: Eurobarometer, 2015)

Das Problem bei der Frage nach moralischem Verhalten besteht darin, dass es kein klar definiertes richtig oder falsch gibt. Jeder – von Roboterdesignern und Entwicklern über Politiker bis hin zur Öffentlichkeit – wird eine eigene Meinung dazu haben, welche Vorgehensweise am besten ist. Gleichzeitig ist es schwierig, Moral zu lehren, da sie kaum in objektiven Worten ausdrückt werden kann. Dadurch wird es unmöglich, objektive Metriken zu erstellen, die die Maschinen verarbeiten können. Und dann gibt es auch noch das Argument, dass wir Menschen selbst kein wirkliches Verständnis von Moral haben. Denn meistens folgen wir unserem Bauchgefühl. Maschinen, auf der anderen Seite, fehlt dieser Instinkt naturgemäß.

Vielleicht liegt der beste Weg darin, Maschinen so zu entwickeln, wie wir unsere Kinder erziehen. Moralität ist ein andauernder Lernprozess. Wir zwingen unseren Kindern nicht einfach unsere Entscheidungen auf – vielmehr versuchen wir, ihnen eine Orientierung dazu zu geben, welche Art von Verhalten gut ist. Schlussendlich wird das Kind (oder der Roboter) sich auf eine Art Verhalten, die es für richtig hält.

Für den Moment sollten wir nicht vergessen, dass KI nicht wirklich selbstständig denken kann. Zwar können Roboter extrem komplexe Aufgaben ausführen, die wir normalerweise mit sehr intelligenten Menschen in Verbindung bringen würden (z. B. komplexe Gleichungen, medizinische Diagnosen, rechtliche Argumentation usw.), aber mit elementaren menschlichen Tätigkeiten – wie etwa die Wäsche zusammenzulegen oder einen Witz zu erzählen – sind sie noch überfordert. Die Fähigkeit zu unabhängigen moralischen Entscheidungen bleibt bis auf Weiteres noch Zukunftsmusik.

Total
0
Shares
Vorheriger Beitrag

Wie nah sind Roboter daran, menschlich zu werden?

Nächster Beitrag

12 inspirierende Persönlichkeiten an der Spitze der KI-Revolution

Verwandte Beiträge